Untitled Document
 
 
 
 
Untitled Document
Home
Current issue
Past issues
Topic collections
Search
e-journal Editor page

Data entry system

ระบบการนําเข้าข้อมูล

บัณฑิต ถิ่นคํารพ 1




       คุณภาพของข้อมูล เป็นสิ่งสำคัญมากต่อการคงอยู่อย่างยั่งยืนและความสามารถในการขันของบุคคล องค์กรและสังคม เนื่องจากในยุคที่มีการแข่งขันที่รุนแรง และสรรพสิ่งเปลี่ยนแปลงอย่างรวดเร็วนั้น ทุกจังหวะก้าวต้องตั้งอยู่บนฐานความรู้ (knowledge-based) และพัฒนาสู่ฐานปัญญา (wisdom-based) ล้วนมีพื้นฐานจากข้อมูล คุณภาพข้อมูลได้รับอิทธิพลจากหลายปัจจัย แต่สามารถจำแนกเป็น 2 กลุ่มหลักๆ คือกระบวนการได้มาซึ่งข้อมูล และกระบวนการบริหารจัดการข้อมูล ในส่วนของกระบวนการบริหารจัดการข้อมูลนั้น ขั้นตอนที่สำคัญและส่งผลต่อคุณภาพของข้อมูลมากที่สุดขั้นตอนหนึ่งคือ การนำเข้าข้อมูล (data entry) และการตรวจสอบแก้ไข (data verification and cleaning)
บทความนี้ นำเสนอผลทบทวนวรรณกรรมเกี่ยวกับพัฒนาการด้านการนำเข้าข้อมูล และเสนอ ประสบการณ์ในการประยุกต์ใช้เทคโนโลยีในการนำเข้าข้อมูลสำหรับการวิจัยขนาดใหญ่ ที่ผู้เขียนได้เกี่ยวข้อง พร้อมสรุปบทเรียน และข้อเสนอแนะที่อาจเกิดประโยชน์ต่อวงการบริหารจัดการข้อมูลการวิจัย

บทนำ
     คุณภาพของข้อมูล เป็นสิ่งสำคัญมากต่อการคงอยู่อย่างยั่งยืนและความสามารถในการขันของบุคคล องค์กรและสังคม เนื่องจากในยุคที่มีการแข่งขันที่รุนแรง และสรรพสิ่งเปลี่ยนแปลงอย่างรวดเร็วนั้น ทุกจังหวะก้าวต้องตั้งอยู่บนฐานความรู้ (knowledge-based) และพัฒนาสู่ฐานปัญญา (wisdom-based) ล้วนมีพื้นฐานจากข้อมูล คุณภาพข้อมูลได้รับอิทธิพลจากหลายปัจจัย แต่สามารถจำแนกเป็น 2 กลุ่มหลักๆ คือกระบวนการได้มาซึ่งข้อมูล และกระบวนการบริหารจัดการข้อมูล ในส่วนของกระบวนการบริหารจัดการข้อมูลนั้น ขั้นตอนที่สำคัญและส่งผลต่อคุณภาพของข้อมูลมากที่สุดขั้นตอนหนึ่งคือ การนำเข้าข้อมูล (data entry) และการตรวจสอบแก้ไข (data verification and cleaning)
     บทความนี้ นำเสนอผลทบทวนวรรณกรรมเกี่ยวกับพัฒนาการด้านการนำเข้าข้อมูล และเสนอ ประสบการณ์ในการประยุกต์ใช้เทคโนโลยีในการนำเข้าข้อมูลสำหรับการวิจัยขนาดใหญ่ ที่ผู้เขียนได้เกี่ยวข้อง พร้อมสรุปบทเรียน และข้อเสนอแนะที่อาจเกิดประโยชน์ต่อวงการบริหารจัดการข้อมูลการวิจัย

มาตรฐานสากล
     การได้มาซึ่งข้อมูลที่มีคุณภาพนั้น ต้องใช้ความมานะพยายามสูง ใช้เวลามาก และต้องลงไปในรายละเอียดอย่างลึกซึ้ง การบริหารจัดการข้อมูลที่ดี จึงต้องเน้นแนวทางที่เป็นองค์รวม กล่าวคือทำให้การบริหารจัดการข้อมูลเป็นหนึ่งเดียวกับงานวิจัย ไม่กำหนดบทบาทเพียงนำข้อมูลเข้าคอมพิวเตอร์ ปรับปรุงแก้ไขให้ถูกต้องตามที่เก็บรวบรวมมา และทำให้อยู่ในรูปที่พร้อมนำไปวิเคราะห์เท่านั้น แต่ต้องเป็นทีมกับนักวิจัย โดยเข้าไปมีส่วนร่วมวางแผนการวิจัยว่าจะเก็บข้อมูลอะไร เก็บอย่างไร และเมื่อได้ข้อมูลมาแล้วจะนำไปวิเคราะห์อย่างไร สุดท้ายคือ เมื่อได้ผลตามนั้นแล้วตอบคำถามวิจัยหรือไม่ อย่างไร หากสามารถกระทำได้เช่นนี้ ผู้บริหารจัดการข้อมูลก็จะเข้าถึงเนื้อหาสาระของข้อมูล ยังผลให้การกำหนดมาตรฐานการดำเนินงาน  (standard operating procedure หรือ SOP) ได้อย่างละเอียดรอบคอบ สอดคล้องกับเรื่องที่ทำวิจัย และปฏิบัติได้จริง ปัญหาที่ไม่คาดคิดก็อาจเกิดได้น้อย หากดำเนินการตรงข้ามกับที่กล่าวนี้ จะเผชิญกับความยุ่งยากอย่างเหลือเชื่อ อาจกล่าวได้ว่า "ไม่มีงานใดหนักเท่าการจัดการกับข้อมูลงานวิจัยที่ขาดการวางแผนที่ดี"
     แนวทางดำเนินงานทางด้านนี้ มีการพัฒนามาโดยลำดับ กระทั่งมีมาตรฐานสากลในการทำวิจัยทางการแพทย์ ซึ่งมีชื่อย่อว่า ICH-GCP (ดูรายละเอียดที่ 
http://www.ich.org) แม้ริเริ่มโดยไม่กี่ประเทศ (สหภาพยุโรป ญี่ปุ่น และสหรัฐอเมริกา เมื่อปี ค.ศ. 1996) แต่ในที่สุดก็ได้รับการถือปฏิบัติทั่วโลก ถึงกับมีข้อกำหนดว่า ผลิตภัณฑ์จากผลการวิจัยที่ทำตาม ICH-GCP เท่านั้นที่จะได้รับพิจารณาขึ้นทะเบียน มาตรฐานดังกล่าว มีแนวทางที่สำคัญที่เกี่ยว¬ข้องกับการบริหารจัดการข้อมูลระบุไว้ใน ICH-E6 (good clinical practice : consolidated guide¬line ข้อที่ 5.5) สิ่งนี้ นอกจากจะเน้นให้เห็นความสำคัญของ SOP แล้ว ส่วนที่สำคัญในนั้น ยังกล่าวถึงข้อกำหนดในการจัดการกับข้อมูลในรูปอิเล็กทรอนิกส์ ซึ่งสะท้อนให้เห็นว่า การประยุกต์ใช้เทคโนโลยีในการบริหารจัดการข้อมูล ถือเป็นมาตรฐานการดำเนินงานที่สำคัญ และรูปแบบที่ถือได้ว่าสิ้นสุดแล้วคือการทำด้วยมือเช่นขีดนับ หรือใช้โปรแกรมคอมพิวเตอร์ใดๆ ที่ไม่เอื้อให้ตรวจสอบคุณภาพข้อมูลได้ เช่น คีย์ลงในโปรแกรมประมวลผลคำ (word processor) หรือแผ่นงาน (spreadsheet) 

เทคโนโลยีในการนำเข้าข้อมูล
     วิธีการนำเข้าข้อมูล (data entry) ที่เป็นที่นิยมในปัจจุบันคือทำด้วยมือ (manual) เป็นการป้อนข้อมูลด้วยคนสองคนเข้าคอมพิวเตอร์ โดยต่างคนต่างป้อนจากแบบฟอร์มชุดเดียวกัน (double data entry) จากนั้นเปรียบเทียบแฟ้มข้อมูลทั้งสอง หากมีข้อมูลรายการใดไม่สอดคล้องกัน ผู้ที่ทำการตรวจสอบจะค้นแบบฟอร์มต้นฉบับ แล้วแก้ไขข้อมูลในแฟ้มข้อมูลหลักให้ถูกต้อง ขั้นตอนนี้บางโครงการวิจัยทำแบบต่างคนต่างแก้ (double verification) และแน่นอนว่าต้องเปรียบเทียบความสอดคล้องกันของผลการแก้อีกครั้ง วิธีการนี้ ล้วนสิ้นเปลืองทรัพยากรมาก ทั้งแรงงานคน และเวลา แต่ที่สำคัญคือผลก็ยังไม่ปลอดข้อผิดพลาด อย่างน้อยที่สุดคือวิธีการนี้ไม่สามารถตรวจพบข้อผิดพลาดจากการป้อนเหมือนกันแต่ผิดทั้งคู่ จึงไม่แปลกที่มีผลการศึกษาวิจัยหลายเรื่องที่ชี้ว่าวิธีนี้ไม่คุ้มค่าต่อการลงทุน(1-3)
      วิธีการที่แก้ไขข้อด้อยของวิธีแรกคือ single data entry with entry validation กล่าวคือป้อนโดยคนคนเดียว แต่เขียนหน้าจอป้อนข้อมูล (data entry interface) ที่เหมือนกันกับแบบฟอร์มเพื่อป้องกันความสับสนของผู้ป้อน และให้มีโปรแกรมดักข้อผิดพลาดในนั้น เมื่อใช้งาน หากป้อนข้อมูลผิดพลาด โปรแกรมจะไม่รับ พร้อมกับฟ้อง Error จึงป้องกันการป้อนข้อมูลที่ผิดไว้ได้ระดับหนึ่ง จากนั้นให้มีการสุ่มตรวจทานโดยพนักงานอีกคน (sampling proof reading) วิธีการสุ่มที่น่าสนใจคือ continuous sampling ที่เสนอแนะโดย Zhang and Hu(4) เป็นการตรวจด้วยตาเพื่อหาว่ามีข้อมูลใดบ้างในแบบฟอร์มที่สุ่มตรวจใด ที่ไม่ตรงกับข้อมูลในแฟ้มข้อมูลในคอมพิวเตอร์ วิธีการนำเข้าข้อมูลแบบนี้ ลดค่าใช้จ่ายคนป้อนข้อมูล แต่เพิ่มค่าใช้จ่ายการทำ proof reading และเขียนโปรแกรม entry validation อย่างไรก็ตาม การออกแบบโดยให้โปรแกรมคอมพิวเตอร์ตรวจจับข้อผิดพลาดแทนคน ถือเป็นจุดได้เปรียบเมื่อเทียบกับวิธีแรก เพราะลด human error ได้ในระดับหนึ่ง วิธีการนี้ใช้กันแพร่หลายในต่างประเทศ
      ทั้งสองวิธีแรกล้วนเป็น manual data entry ซึ่งสามารถเกิด human error ได้ง่าย จึงมีความพยายามลด เป็นปัญหาดังกล่าวโดยการใช้เทคโนโลยีนำเข้าข้อมูล เรียกรวมๆ ว่า data capture วิธีการดั้งเดิมคือการอ่านโดยตรงจากแบบฟอร์มโดยใช้เครื่องมือเจาะบัตรอิเล็กทรอนิกส์ จนกระทั้งเป็นเครื่อง optical reader เครื่องมือเหล่านี้ แม้มีความถูกต้องสูงแต่ก็มีราคาแพงมาก (หลายแสนบาท) และมีเงื่อนไขมากมายเกี่ยวกับการออกแบบฟอร์ม การกรอกข้อมูล เช่นต้องใช้กระดาษสีตามที่ระบุ ใช้ดินสอ 2B ต้องระบายช่องให้ทึบสนิท ฯลฯ พร้อมๆ กันนี้ มีเทคโนโลยีที่ใช้เครื่องสแกนเนอร์แปลงแบบฟอร์มจากกระดาษเป็นภาพดิจิตอล จากนั้นใช้โปรมแกรมคอมพิวเตอร์อ่านจากภาพแล้วแปลงเป็นข้อมูล มีชื่อเรียกมากมายตามวิธีการที่ใช้อ่านภาพ เช่น OCR (optical character recognition) สำหรับอ่านตัวอักษรจากการพิมพ์ ICR (intelligent character recognition) สำหรับอ่านลายมือ และ OMR (optical marked recognition) สำหรับอ่านเครื่องหมาย เช่นการระบายทึบในช่องที่กำหนด เป็นต้น วิธีการเหล่านี้ ใช้ซอฟท์แวร์อ่านข้อมูลจากภาพ สำหรับราคานั้น หากไม่รวมอุปกรณ์สำนักงานเช่นคอมพิวเตอร์และสแกนเนอร์แล้ว ถือว่าต่ำมากเมื่อเทียบกับแบบใช้เครื่องอ่าน จึงได้รับการนำไปใช้อย่างแพร่หลายในปัจจุบัน แม้จะมีข้อกำหนดมากมายเพื่อให้ได้ความถูกต้องในการอ่านภาพก็ตาม
ซอฟท์แวร์ที่อยู่ในข่ายนี้ มีมากมาย ต่อไปนี้ เป็นตัวอย่างที่มีการนำไปใช้อย่างแพร่หลาย

ชื่อซอฟท์แวร์ URL
ABBY FineReader     
http://www.abbyy.com/finereader_ocr/
iREAD Forms            http://www.charactell.com/iRead.html
Ascent Capture       http://www.kofax.com/products/ascent/capture/index.asp
Remark Office OMR   http://www.principiaproducts.com/office/index.html
Study Builder           http://www.studybuilder.com/
DataFax                 http://www.datafax.com/

      เทคโนโลยีเกี่ยวกับ Data capture ในปัจจุบัน มุ่งพัฒนาให้สามารถอ่านลายมือให้ได้อัตราความถูกต้องสูงที่สุด แต่จนบัดนี้ ยังไม่มีโปรแกรมใดที่ถือได้ว่าน่าพอใจ และความจริงแล้ว ไม่น่าจะสามารถทำให้ถูกต้อง 100% ได้ เพราะมีองค์ประกอบมากมาย ตัวอย่างสุดขั้วก็คือบางกรณีแม้แต่สมองมนุษย์ยังจำแนกไม่ได้ นอกจากนั้น แม้มีโปรแกรมใดอ่านได้กว่า 99% เราก็ยังไม่สบายใจ และต้องการที่จะตรวจทานอยู่ดี
แนวคิดใหม่เกี่ยวกับเรื่องนี้คือ ความถูกต้องในการอ่านภาพแม้ไม่สูงมากก็ถือว่าใช้ได้ แต่ต้องมีเครื่องมือที่ทำให้สามารถตรวจทานและแก้ไขได้ง่าย ทีมนักพัฒนาซอฟท์แวร์ไทย ได้พัฒนาเครื่องมือให้มีแนวทางสามารถตรวจ¬ทานและแก้ไขได้ง่าย โดยจับเอาเฉพาะภาพส่วนที่เป็นข้อมูลมาแสดงเป็นหมวดหมู่ เช่นหมวด check box หมวดตัวเลข เป็นต้น ตามความจริงที่ว่าเมื่อสิ่งใดถูกจัดวางเป็นหมวดหมู่ สายตามนุษย์ก็สามารถจำแนกสิ่งที่ต่างไปจากพวกได้ง่าย หากสามารถแก้ไขได้ง่ายเพิ่มเข้ามาอีก ก็จะทำไห้ขั้นตอนการตรวจแก้นี้เป็นเรื่องง่ายไปทันที โปรแกรมตามแนวคิดนี้ ได้รับการพัฒนามาระดับหนึ่งและเริ่มใช้งานแล้ว พบว่าสามารถใช้งานได้อย่างมีประสิทธิภาพ
      อนึ่ง  เทคโนโลยีเกี่ยวกับ Data capture ที่กล่าวแล้วข้างต้น ล้วนมุ่งให้ได้ข้อมูลตรงตามฟอร์ม แม้ว่าเป็นข้อมูลที่ผิด ไม่มีองค์ประกอบด้านการตรวจสอบ (validation) ณ ขณะทำการสแกน ทำให้ข้อผิดพลาดไม่ถูกตรวจพบได้ แม้สามารถหามาตรการตรวจสอบภายหลัง ก็ล้วนเป็นกระบวนการที่เกิดข้อผิดพลาดได้ง่าย เพราะแฟ้มข้อมูลกับแบบฟอร์มแยกจากกันแล้ว ทีมพัฒนาจึงได้ผนวกเครื่องมือสำหรับกรองค่าผิดพลาดจากภาพ ตามแนวคิด Entry validation ที่กล่าวข้างต้น เข้าไปในโปรแกรมเดียวกัน แล้วตั้งชื่อโปรแกรมว่า ScanDEVET® ตัวย่อมาทั้ง 5 มาจากคำ data entry with validation and editing tool ทำให้สามารถตรวจสอบค่าที่เป็นไปได้ (legal value) ข้อว่าง (Missing value) ข้อข้าม (skip pattern) ตลอดจนช่วงข้อมูลที่เป็นไปได้ (range check) และยังให้ข้อมูลที่ได้ใน Data file นั้น แสดงไว้ในภาพแบบฟอร์มอีกด้วย สิ่งนี้ถือเป็นเรื่องสำคัญมากต่อการประกันคุณภาพงานวิจัย กล่าวคือ ทุกอย่างต้องมีหลักฐานการบันทึก (documenttation) ฟอร์มจริงเป็นอย่างไร ภาพดิจิตอลต้องเป็นอย่างนั้น หากมีการแก้ไขต้องรู้ได้ว่าแก้จากอะไร เป็นอะไร โดยใคร ที่เรียกว่าต้องมีร่องรอยให้ตรวจสอบได้ (audit trail) โปรแกรม ScanDEVET® ซึ่งพัฒนาโดยคนไทยนี้ เชื่อว่าจะทำให้วงการวิจัยได้รับประโยชน์อย่างมาก (ดูรายละเอียดที่ http:// www. superscansoft.com)
การเก็บแบบฟอร์มที่กรอกข้อมูลแล้วไว้ในรูปดิจิตอล ถือเป็นจุดแข็งของเทคโนโลยีเกี่ยวกับ data capture นี้ เพราะแก้ปัญหาเกี่ยวกับพื้นที่เก็บและวิธีการเก็บกระดาษได้ อีกทั้งสามารถสร้างระบบในการค้นได้ง่ายกว่า ณ ปัจจุบันนี้ แม้โครงการวิจัยนั้นมีแบบสอบถามหลายแสนแผ่น หากผ่านเทคโนโลยีเหล่านี้ นักวิจัยสามารถเก็บทุกอย่างไว้ใน hard disk ความจุเพียง 40 GB ซึ่งมีใช้ทั่วไปโดยที่ ในนั้นมี Data file ที่พร้อมวิเคราะห์ พร้อมกับภาพแบบสอบถามที่มีความคมชัดเท่าต้นฉบับที่สามารถเรียกดูได้ทันที่ที่หน้าจอคอมพิวเตอร์ ด้วยเทคโนโลยีดังกล่าว ภาพเจนตาเกี่ยวกับโครงการวิจัยที่ห้องทำงานมีกองกระดาษมหึมา ตู้เก็บเอกสารเรียงรายราวห้องสมุด หรือแยกเก็บเป็นโกดังเอกสารห้องใหญ่  พร้อมกับภาพคนทำงานคร่ำเคร่งกับการค้นหาชุดที่ต้องการ (แต่สุดท้ายก็มักไม่พบ) นั้น ได้กลายเป็นอดีตไปโดยสิ้นเชิง

เทคโนโลยีในการตรวจสอบ และปรับปรุงแก้ไขข้อมูล
       หลังจากได้ data file จากการนำเข้าที่กล่าวแล้วข้างต้น ขั้นตอนต่อมาคือนำข้อมูลมาตรวจสอบและแก้ไข (data cleaning) มักเป็นวงจรการทำงานรอบแล้วรอบเล่าจากการวิเคราะห์เบื้องต้น (exploratory data analysis) เมื่อพบผิดพลาดก็ค้นแบบฟอร์มมาแก้ไข จนกระทั่งไม่พบข้อผิดพลาดอีก จึงจะเข้าสู่การวิเคราะห์เพื่อเขียนรายงานวิจัยต่อไป กล่าวกันว่าขั้นตอนี้ใช้เวลากว่าร้อยละ 80 ของเวลาทั้งหมดของการบริหารจัดการข้อมูล ที่ทำกันอย่างไม่ซับซ้อนมากนัก ก็มักเสียเวลากับการค้นแบบฟอร์มต้นฉบับ และการแก้ไขที่ต้องใช้วิจารณญาณ ถึงกระนั้นก็ยังเกิดข้อผิดพลาดได้ง่าย เฉพาะอย่างยิ่งการแก้ไขที่ขาดระบบที่ดี อาจพบว่าที่ผิดไม่ได้แก้ แต่ไปแก้รายอื่นที่ถูกอยู่แล้ว กลายเป็นว่าเพิ่มความผิดพลาด
       คณะทำงานที่ศูนย์บริหารจัดการข้อมูลและสนับสนุนด้านสถิติ (Center for Data Management and Statistical Supports หรือ CDMS) คณะสาธารณสุขศาสตร์ มหาวิทยาลัยขอนแก่น สามารถแก้ไขปัญหาตามที่กล่าวข้างต้นได้ โดยประยุกต์ใช้คุณสมบัติของ Hypertext โดยจัดให้มีเครื่องมือสำหรับ exploratory data analysis (EDA) ผลจากเครื่องมือนี้ สามารถใช้เมาส์คลิกข้อมูลที่สงสัย จะได้หมายเลขชุดแบบสอบถาม สำหรับนำไปค้นแบบสอบถาม หรือหากแบบสอบถามเก็บไว้ในรูปภาพสแกนแล้วก็จะได้ภาพแบบสอบถามชุดนั้นแสดงขึ้นที่หน้าจอ ทำให้สามารถตรวจสอบได้ทันที หากตัดสินใจแก้ไข ก็สามารถแก้ได้เลย โดยโปรแกรมนี้ก็จะเก็บข้อมูลเกี่ยวกับการแก้ไขนั้นสำหรับเป็น Audit trail ไว้ด้วย ชื่อเครื่องมือนี้คือ EDAET (exploratory data analysis and editing tool)
      สำหรับงานวิจัยขนาดใหญ่ โครงการที่มีความสลับซับซ้อน เฉพาะอย่างยิ่งที่ต้องเก็บข้อมูลรายเดียวกันหลายช่วงเวลาต่อเนื่องกัน (longitudinal study) นั้น จำเป็นต้องเพิ่มขั้นตอนการตรวจสอบอีกมาก ที่สำคัญคือกระบวนการที่ประกันได้ว่าข้อมูลของรายหนึ่งในช่วงเวลาหนึ่ง เป็นคนคนเดียวกับรายนั้น ในช่วงเวลาก่อนหน้านั้น ไม่สลับคน (Data integrity) และความสอดคล้องกันของข้อมูลข้ามฟอร์มข้ามช่วงเวลา เช่นส่วนสูงวัดครั้งนี้ ไม่ควรน้อยกว่าที่วัดได้เมื่อหลายเดือนก่อนหน้านี้ (logical and consistency check across forms and time) เป็นต้น ความซับซ้อนดังกล่าว ทำให้ต้องมีความรอบคอบอย่างยิ่งในการเลือกใช้โปรแกรมจัดการฐานข้อมูล (data base) ที่ได้มาตรฐาน โปรแกรมที่พบว่ามีประสิทธิภาพสูง เป็นที่ยอมรับระดับสากลและไม่มีค่าใช้จ่ายคือ MySQL  (ดูรายละเอียดและดาวน์โหลดโปรแกรมได้ฟรีที่
http://www.mysql.com) ซึ่ง CDMS เลือกใช้ และพบว่าสามารถใช้ได้อย่างไม่มีปัญหาแต่อย่างใด

การประยุกต์เทคโนโลยีเพื่อการบริหารจัดการข้อมูลครบวงจร
      ที่กล่าวข้างต้น ยังเป็นภาพที่แยกส่วน เพื่อให้เกิดความเชื่อมโยง จึงขอนำเสนอระบบบริหารจัดการข้อมูลสำหรับโครงการวิจัยขนาดใหญ่ มีหลายสถาบันร่วมงานวิจัย และประยุกต์ใช้เทคโนโลยีสารสนเทศ และดำเนินการจริงในขณะนี้ ดังนี้
      การบริหารจัดการข้อมูล ดำเนินการแบบ Distributed data entry and central data management ผู้ช่วยนักวิจัย (RA) เก็บรวบรวมจากตัวอย่างในแต่ละพื้นที่ (study site) จากนั้นนำส่งให้หัวหน้าทีมผู้ช่วยนักวิจัยตามกำหนดเวลาที่ระบุไว้ในคู่มือการดำเนินงานอย่างเคร่งครัด เพื่อการตรวจสอบ (Upfront data checking) อย่างรวดเร็ว ก่อนจะนำข้อมูลเข้าคอมพิวเตอร์ มีขั้นตอนการดำเนินการดังแสดงตามภาพที่ 1 และ 2
      การนำเข้าข้อมูล กระทำโดย RA แต่ละคน เพื่อให้เกิดการเรียนรู้ปัญหาด้วยตนเอง และสามารถทำแทนกันได้หากคนใดคนหนึ่งต้องไปทำหน้าที่อื่นหรือย้ายงาน การนำเข้าข้อมูล ทำ ณ พื้นที่วิจัย โดยใช้เครื่อง Scanner ผ่านโปรแกรม ScanDEVET® ซึ่งเป็นโปรแกรมที่พัฒนาโดยคนไทย คือบริษัทซุปเปอร์สแกนซอฟท์ (SuperScanSoft) ข้อมูลที่เป็นตัวเลือก และลายมือกรอกตัวเลขทั้งหมด สามารถนำเข้าโดยเครื่องมือนี้ เฉพาะข้อมูลที่เป็นอักษร คือเขียนเป็นข้อความ เช่นคำตอบของคำถามปลายเปิด จะนำเข้าระบบเดิมคือจัดพิมพ์เข้าคอมพิวเตอร์โดยตรง ในโปรแกรมดังกล่าวมีเครื่องมือสำหรับการตรวจสอบข้อว่าง ข้อข้าม ค่าเป็นไปไม่ได้ ค่านอกช่วง พร้อมกับฟังก์ชั่นสำหรับตรวจสอบ Data integrity ซึ่งสำคัญมากใน Relational database system และเป็นการศึกษาวิจัยระยะยาว ขั้นตอนนี้ ดำเนินการภายใน 1 วันหลังจากผู้ช่วยนักวิจัยกลับเข้าสำนักงานโครงการในพื้นที่ฯ
      กระบวนการดังกล่าว จะยังผลให้ได้ข้อมูลในรูป Data file ซึ่งเป็น ASCII format และภาพแบบสอบถามในรูป Portable Document Format (หรือ PDF) ส่วนที่เป็น Data file นั้นจะถูกส่งเข้าสู่ศูนย์ข้อมูลกลางโดยทาง Internet ในวันเดียวกัน
      ไฟล์นี้จะถูก Download ลงจาก Internet Server (Server หมายเลข 1) โดยผ่านเครื่องคอมพิวเตอร์ที่ต่อกับอินเตอร์เน็ต จากนั้น Copy ใส่ดิสก์ส่งผ่านไปนำเข้า Database ในอีกเครื่องหนึ่งซึ่งเป็น Intranet Server (Server หมายเลข 2) ที่เป็นคอมพิวเตอร์ที่ไม่เชื่อมต่อกับอินเตอร์เน็ต มีไว้สำหรับเก็บข้อมูลจาก Internet เก็บไว้ใน "Online database"
      อนึ่ง Server หมายเลข 2 นี้มีการเชื่อมต่อเข้ากับ LAN เป็นเครือข่ายของศูนย์ข้อมูลกลางเท่านั้น เพื่อทำงานอย่างเป็นเอกภาพบนฐานข้อมูลเดียวกัน และในคราวเดียวกันได้จำนวนมาก นอกเหนือจากกรณีที่กล่าวแล้ว Server นี้จะไม่ต่อกับเครือข่ายใดๆ ทั้งสิ้น
      ที่พื้นที่วิจัย หัวหน้าทีมผู้ช่วยนักวิจัยรวบรวมสำเนาทั้งส่วนที่เป็น Data file และส่วนที่เป็น PDF ไฟล์ของแบบสอบถาม แล้วบันทึกลงใน CD-ROM จัดส่งทางไปรษณีย์ด่วนพิเศษ (EMS) สัปดาห์ละครั้ง ไปยังศูนย์ข้อมูลกลาง โดยบันทึกลงใน CD-ROM พร้อมกับสำเนาข้อมูลไว้ที่พื้นที่วิจัย ส่วนแบบฟอร์มที่เป็นกระดาษแบบสอบถามนั้น หัวหน้าทีมผู้ช่วยนักวิจัยจัดเก็บไว้อย่างปลอดภัย ณ พื้นที่วิจัย
ที่ศูนย์ข้อมูลกลาง จัดให้มีระบบการรับ data file โดยผ่าน Web Application ที่มีเจ้าหน้าที่บริหารจัดการข้อมูลตรวจสอบความถูกต้องทุกวัน และจัดให้มีระบบ Feedback ผลการรับข้อมูลจากพื้นที่ ตลอดจนรายงานคุณภาพข้อมูลเบื้องต้น จำแนกตามผู้เก็บข้อมูลเป็นรายบุคคล เช่นความครบถ้วน ทันเวลา ฯลฯ เพื่อให้ผู้ที่ดูแลฐานข้อมูล (ซึ่งหัวหน้าโครงการวิจัย อนุญาตให้เข้าถึงฐานข้อมูลได้ โดยกำหนดรหัสประจำตัว) สามารถตรวจสอบได้ทุกเวลา


 
 

      สำหรับ CD-ROM ที่รับจากพื้นที่รายเดือนนั้น หลังจากผ่านการตรวจสอบความสอดคล้องกันระหว่าง Data file กับ PDF ในแผ่นเดียวกันเรียบร้อยแล้ว ข้อมูลจะถูกนำเข้า Intranet Server (Server หมายเลข 2) เก็บข้อมูลไว้ใน "CDROM Database" จากนั้นตรวจสอบความสอดคล้องกับ "Online Database" ซึ่งอยู่บน Server เดียวกันตามที่กล่าวข้างต้น จนแน่ใจว่าเป็น Data ชุดที่ถูกต้องก่อนนำเข้าสู่กระบวนการตรวจสอบของศูนย์ข้อมูลกลาง จึงนำเข้า "Offline Database"
      Data file ชุดก่อนที่จะนำเข้าสู่กระบวนการตรวจสอบของศูนย์ข้อมูลกลางนี้ จะถูกนำเข้าคอมพิวเตอร์อีกเครื่องหนึ่งที่วางอยู่อาคารที่แยกจากอาคารที่ตั้งเครื่อง server หมายเลข 2 เพื่อป้องกันข้อมูลถูกทำลายด้วยเหตุสุดวิสัยบางประการ Server เครื่องนี้คือ Main Database Server (Server หมายเลข 3) เป็น Server ที่ไม่ถูกเชื่อมต่อกับเครือข่ายใดๆ ทั้งสิ้น ฐานข้อมูลที่รองรับระบบการส่งข้อมูลแบบนี้เรียกว่า "Main Database" ซึ่งเป็นฐานหลักของโครงการวิจัย เป็นฐานของข้อมูลที่ได้ผ่านการตรวจสอบยืนยันแล้วระหว่างพื้นที่กับศูนย์ข้อมูลกลาง และไม่ถูกส่งผ่านเครือข่ายใดๆ ทั้งสิ้น ข้อมูลชุดนี้จะสมบูรณ์และสามารถนำไปใช้ประโยชน์ได้ก็ต่อเมื่อได้ผ่านการ Run SQL ที่ได้จากกระบวนการ Clean data ใน Server หมายเลข 2 แล้วเท่านั้น อนึ่ง Server หมายเลข 3 นี้ ยังเป็นที่เก็บ PDF ที่ผ่านการตรวจสอบแล้ว และ SQL ที่ใช้ Run เพื่อแก้ไขข้อมูลครั้งสุดท้ายอีกด้วย
      สำหรับฐานข้อมูล "Main Database" นี้ ชื่อตารางที่ลงท้ายด้วย "_a" เป็น Original data และลงท้ายด้วย "_b" เป็น Data ที่ผ่านการ Run SQL เรียบร้อยแล้ว ทั้งนี้ เพื่อประกันได้ว่า หากมีความผิดพลาดที่อาจเกิดขึ้นจาก SQL ก็ยังสามารถกลับไปจุดตั้งต้นใหม่ได้ทุกเมื่อ
      ในการตรวจสอบคุณภาพข้อมูล นอกจากที่กล่าวข้างต้น ยังให้มีโปรแกรมสำหรับตรวจ¬สอบตรรกะข้อมูลทั้งหมดทุกฟอร์มเป็นระยะ ตามด้วยการวิเคราะห์เบื้องต้น (explo¬ratory data analysis tools หรือ EDAT) โดยนักวิจัยผู้รับผิดชอบหลักและนักสถิติ เพื่อเป็น logical และ consistency check การแก้ไขข้อมูลทุกอย่าง ทำผ่าน EDAET ที่สามารถให้เกิด Data integrity สูงสุด พร้อมกับได้ Batch file ของการแก้ไขนั้น เพื่อใช้ให้เป็น Audit trail กล่าวอีกนัยหนึ่ง การแก้ไขใดๆ กับ "Online database" จะถูกบันทึกเป็นคำสั่ง Structure query language (SQL) เก็บไว้ในฐานข้อมูลคำสั่ง (log process) คำสั่งทั้งหมดสามารถนำไป Run กับ "Offline Database" แล้วจะได้ผลการแก้ไขเหมือนกันทุกประการ
ขั้นตอนการดำเนินงานที่แสดงในภาพที่ 1 และ 2 นั้น จำเป็นต้องมี Computer network รองรับอย่างดี สำหรับภาพที่ 3 นั้น แสดงระบบดังกล่าว โดยสรุปคือทุกพื้นที่วิจัยมีคอมพิวเตอร์ที่เชื่อมต่อเครือข่ายอินเตอร์เน็ตเฉพาะเวลาที่ต้องส่ง Data File สำหรับระบบ online ในแต่ละพื้นที่มีเฉพาะ Database สำหรับบริหารจัดการเพื่อการเก็บข้อมูลอย่างมีประสิทธิภาพ ซึ่งเป็นระบบที่ศูนย์ข้อมูลกลางติดตั้งให้
ในส่วนของพื้นที่วิจัยทั้ง 5 แห่ง แต่ละแห่งมีคอมพิวเตอร์ที่มีโมเด็มสามารถเชื่อมต่อเข้าอินเตอร์เน็ตได้ มีโปรแกรม ScanDEVET® และเครื่องสแกนเนอร์ เพื่อนำข้อมูลจากกระดาษแบบสอบถามเข้าสู่คอมพิวเตอร์ และมี CD Writer เพื่อสำรอง Data file และ PDF ภาพแบบสอบถาม นำส่งศูนย์ข้อมูลกลางทุกเดือน


 
 

      ในส่วนที่ศูนย์ข้อมูลกลางรับผิดชอบโดยตรง คือ Computer ที่เป็น Server ซึ่งมีทั้งหมด 3 เครื่อง และเครือข่ายภายในศูนย์ข้อมูลกลาง ซึ่งรวมอยู่ในห้องทำงานเดียวกัน 10 เครื่อง สำหรับ Server นั้น มีชื่อตามหมายเลขเครื่องดังนี้
1. Internet Server มีไว้สำหรับรองรับระบบเครือข่ายอินเตอร์เน็ต เปิดทำงานตลอด 24 ชั่วโมง ตั้งไว้ที่อาคารการสื่อสารแห่งประเทศไทย (กสท) เขตบางรัก กรุงเทพมหา¬นคร พื้นที่วิจัย Upload Data File ขึ้นที่นี่ และศูนย์ข้อมูลกลาง Download Data File จากที่นี่ Server นี้ เป็นที่บรรจุฐานข้อมูลที่สำคัญ 1 ฐานเรียกว่า "Internet Database"
2. Intranet Server มีไว้สำหรับเป็น Working station รองรับระบบ Local Area Network (LAN) ที่ใช้เฉพาะภายในศูนย์ข้อมูลกลางเท่านั้น ทั้งนี้ LAN วงนี้ ไม่เชื่อมต่อกับอินเตอร์เน็ตหรือเครือข่ายอื่นใด เครื่องนี้ ตั้งอยู่อาคารที่ตั้งของศูนย์ข้อมูลกลาง คณะสาธารณ¬สุขศาสตร์ มหาวิทยาลัยขอนแก่น Server นี้ เป็นที่บรรจุฐานข้อมูลที่สำคัญ 4 ฐาน ได้แก่ (1)"Online Database" จากการ download; (2)"CDROM Database" จากที่พื้นที่ส่งมาทางไปรษณีย์; (3)"Offline Database" ที่เก็บเฉพาะส่วนที่สอดคล้องตรงกันระหว่าง (1) และ (2); และ (4)"Cleaned Database" เก็บข้อมูลที่ผ่านกระบวนการตรวจสอบทั้งหมด เป็นข้อมูลชุดเดียวกันกับที่เก็บใน "Main¬Database(B)" ที่ได้มาจาก Server#3 ที่จะกล่าวต่อไป เป็น database ที่พร้อมใช้ และการเรียกใช้ข้อมูลกระทำที่ database นี้ใน Server#2 นี้
3. Main Database Server มีไว้สำหรับเป็นเครื่องหลัก ที่เก็บฐานข้อมูลที่จะใช้จริง จึงไม่เชื่อมต่อกับอินเตอร์เน็ตหรือเครือข่ายอื่นใดทั้งสิ้น เครื่องนี้ ตั้งอยู่อาคารที่ตั้งของผู้อำนวยการศูนย์ข้อมูลกลาง คณะสาธารณสุขศาสตร์ มหาวิทยาลัยขอนแก่น server นี้ เป็นที่บรรจุฐานข้อมูลที่สำคัญ 3 ฐาน ได้แก่ (1)"Main Database" สำหรับบรรจุข้อมูล Original มีชื่อ Table ลงท้ายด้วย "_a"  แต่เมื่อข้อมูล ผ่านการ Run SQL แล้ว จะเก็บใน Table ที่ลงท้ายด้วย "_b" และข้อมูลที่ก๊อปปี้จาก Offline Database (B) ใน Server #2 Final ซึ่งผ่านการ Run SQL แล้ว มีชื่อ Table ลงท้ายด้วย "_c" จึงเขียนในภาพที่ 1 และ 2 ว่า [MainDatabase(A)], [MainDatabase(B)], และ [MainDatabase(C)] ตาม ลำดับ; (2)"Forms Database" สำหรับบรรจุภาพสแกนแบบสอบถามที่ผ่านการตรวจสอบแก้ไขให้ตรงกับข้อมูลแล้ว; และ (3)"SQL Database" สำหรับเก็บชุดคำสั่ง SQL เพื่อเปลี่ยนแปลงแก้ไขข้อมูล ตามกระบวนการ clean ข้อมูลของศูนย์ข้อมูลกลาง
     เครื่อง Internet Server มีฐานข้อมูลที่มีโครงสร้างเดียวกันกับที่มีใน Main Database Server แต่เป็นข้อมูลที่ยังไม่สามารถนำไปใช้ประโยชน์ในการวิจัยได้ เพราะข้อมูลยังไม่ผ่านการ Clean และบางส่วนเข้ารหัส หรือให้รหัสหลอก เป้าหมายหลักคือเพื่อการตรวจสอบสถานะเกี่ยวกับการรับ-ส่งข้อมูล และแสดงค่าสถิติหยาบๆ เพื่อเอื้อให้ค้นพบปัญหาอย่างทันเวลา โดยไม่มีข้อจำกัดของการทำงานที่ร่วมกันทำจำนวนมากและต่างสถานที่ต่างเวลากัน
      เครื่อง Intranet Server มีฐานข้อมูลที่มีโครงสร้างเดียวกันกับ Main Database Server แต่เป็นข้อมูลที่ยังไม่สามารถนำไปใช้ประโยชน์ในการวิจัยได้ เพราะมีข้อมูลใหม่เข้ามาเป็นระยะเพื่อรอรับการตรวจสอบและ Clean ตามขั้นตอนที่กล่าวข้างต้น เป้าหมายหลักคือเพื่อนำข้อมูลที่ส่งมาจากพื้นที่ ทั้งโดยทางอินเตอร์เน็ต (ระบบ Online) และโดยทาง EMS (ระบบ Offline) นั้น มาตรวจสอบ เฉพาะอย่างยิ่ง การตรวจสอบความถูกต้องการนำเข้าข้อมูล ซึ่งใช้วิธีสุ่มตรวจทาน (Random proof reading) กำหนดให้การแก้ไขข้อมูลต่างๆ ที่เกิดขึ้นหลังจากพื้นที่ได้ส่งข้อมูลสู่ศูนย์ข้อมูลกลางแล้วนั้น ต้องมีร่องรอยหรือหลักฐานการตรวจสอบเสมอ ดังนั้นการแก้ไขทุกอย่างจึงต้องเป็นคำสั่ง Structure query language (SQL) ด้วยวิธีนี้ ผลลัพธ์สุดท้ายของการทำงานบนเครื่อง Intranet Server นี้ จึงเป็นชุดคำสั่ง SQL ที่กระทำกับ Online Database โดยใช้ข้อมูลที่มาตามระบบ Offline เป็นเครื่องมือร่วมตรวจสอบ จนทำให้ได้ข้อมูลมีความถูกต้องมากที่สุด
      เครื่อง Main Database Server เป็นแหล่งของข้อมูลที่พร้อมใช้สำหรับการวิจัย ข้อมูลในระบบ Offline ที่เป็น ASCII format ที่ส่งมาจากพื้นที่โดยทาง EMS ในแผ่น CD-ROM นั้น เมื่อผ่านกระบวนการตรวจสอบ และ Clean เรียบ¬ร้อยแล้ว แต่ละชุดจะถูกส่งไปยังผู้รับ¬ผิดชอบ Main Database พร้อมกับ SQL ของเฉพาะข้อมูล CD-ROM ชุดนั้น ซึ่ง SQL นี้ได้จาก เครื่อง Intranet Server ตามที่กล่าวข้างต้น ผู้รับผิดชอบคนดังกล่าว จะนำข้อมูลจาก CD-ROM เข้าสู่ Database จากนั้นสั่ง Run SQL ชุดที่แนบมาพร้อม CD-ROM นั้น
      ขั้นตอนเพื่อตรวจสอบความผิดพลาดที่อาจเกิดกับระบบทั้งหมด กระทำโดยเปรียบเทียบ Data ชุดเดียวกันและผ่านการ Clean แล้ว ระหว่างชุดที่ได้จาก Intranet Server (Online) กับ Main Database Server (Offline) หากมีความแตกต่างกัน จะนำไปสู่การสอบสวนหาสาเหตุเพื่อแก้ปัญหาต่อไป หากไม่มี ข้อมูลที่อยู่ใน Main Database คือชุดที่พร้อมใช้สำหรับการวิจัย ดังนั้น การสำรองข้อมูลการวิจัย จึงกระทำที่เครื่องนี้ และทำทุกครั้งที่มีการ Update ข้อมูล

ข้อแนะนำการนำเข้าข้อมูล
      หลักการที่ดี "นำเข้าทันที ด้วยวิธีง่ายๆ แล้วให้ถูกต้อง"
1. ข้อแนะนำกรณีนำเข้าข้อมูลด้วยระบบคีย์ด้วยมือ
 - ควรนำเข้าในรูป "ข้อมูลดิบ" คือนำเข้าโดยตรงตามที่ปรากฏในฟอร์มเก็บข้อมูล ไม่ควรให้มีกระบวนการคิดหรือประมวลผลใดๆ ก่อนนำเข้า (Transcription or hand calculation of data prior to keying should not be allowed)
 - นำเข้าตามลำดับ เช่นเดียวกับลำดับการได้ซึ่งข้อมูล
 - ทุกฟอร์มต้องมีรหัสที่ไม่ซ้ำกัน
 - นำเข้าข้อมูลทันที
 -  หน้าจอป้อนข้อมูลควรมีรูปแบบเหมือนกันกับฟอร์มกระดาษ เพื่อลดความสับสนในการคีย์
 - โปรแกรมนำเข้าข้อมูลควรมีการตรวจกรองค่าผิดพลาด (entry validation)
 - อย่าวางใจให้กับกระบวนการตรวจ¬สอบ¬ข้อผิดพลาดของข้อมูลโดยวิธีการเปรียบเทียบระหว่างข้อมูลจากคอมพิวเตอร์ กับข้อมูลในฟอร์มกระดาษ
 - แม้มีผลการศึกษาบ่งชี้ว่า วิธีการนำเข้าข้อมูลแบบ Double data entry ไม่ได้ดีไปกว่า Single data entry with entry validation แต่เนื่องจากการสร้างระบบนำเข้าข้อมูลที่มี Entry validation ที่ดีนั้นต้องการผู้มีความรู้ความ¬สามารถสูง จึงยังคงเป็นทางเลือกที่ดีกว่า
 - ควรมีกระบวนการตรวจสอบการนำเข้าข้อมูลเป็นระยะ ด้วยวิธีการวิเคราะห์ข้อมูลเบื้องต้น เช่นหาค่าที่สูงหรือต่ำมากจนเกินไป (extreme values) หาค่าที่เป็นไปไม่ได้ (Illegal value) ตรวจสอบตรรกะ (logical check) เป็นต้น
 - การแก้ไขข้อมูลใดๆ ที่ค่าไม่ตรงกับที่ปรากฏในแบบฟอร์ม ต้องมีร่องรอยการแก้ไข เพื่อตรวจสอบได้ และสามารถแก้กลับคืนค่าเดิมได้
2. ข้อแนะนำกรณีนำเข้าข้อมูลด้วยระบบสแกน
 -  ควรศึกษาระบบของฮาร์ดแวร์และซอฟท์แวร์ที่จำนำมาประยุกต์ใช้ให้ละเอียดถี่ถ้วน และออกแบบฟอร์มเก็บข้อมูล ตลอดจนเลือกใช้กระดาษที่สอดคล้องกับที่ระบุในคู่มืออย่างเข้มงวด
 - ควรเลือกใช้เครื่องสแกนที่มีการป้อนกระดาษอัตโนมัติ (Auto Document Feeder หรือ ADF)
 - ความเข้าใจที่ว่า เมื่อสแกนนำเข้าข้อมูลแล้ว ก็ไม่ต้องตรวจสอบอีกแล้วนั้น เป็นความเข้าใจที่ผิด เมื่อขั้นตอนนี้ต้องทำอย่างเลี่ยงไม่ได้ จึงควรเลือกใช้โปรแกรมที่มีเครื่องมือตรวจสอบแก้ไขข้อมูลที่ง่ายและสะดวก

บทสรุป
      ด้วยพัฒนาการเทคโนโลยีสารสนเทศที่รุดหน้า ค่าใช้จ่ายด้านฮาร์ดแวร์และซอฟท์แวร์ที่ลดลง แต่มีความสามารถสูงขึ้น และใช้ได้สะดวกสบายขึ้น ทำให้การบริหารจัดการข้อมูลด้านการวิจัยมาถึงจุดเปลี่ยนที่สำคัญ กล่าวได้ว่า ด้วยการวางแผนวิจัยอย่างดี ผนวกกับการวางระบบบริหารจัดการข้อมูลอย่างรอบคอบ อาจต้องการคนทำงานเพียง 2-3 คนสำหรับบริหารจัดการข้อมูลโครงการวิจัยขนาดใหญ่ แล้วยังได้ผลลัพธ์คือข้อมูลที่มีคุณภาพ ในรูปที่พร้อมนำไปวิเคราะห์เพื่อสร้างผลงานวิจัยได้ในวันเดียวกันกับวันที่นำเข้าข้อมูลรายสุดท้ายได้ นอกจากนั้น แม้โครงการวิจัยขนาดเล็กขนาดตัวอย่างไม่เกินร้อย ยังสามารถเป็นเจ้าของเทคโนโลยีนี้ได้ ด้วยเหตุผลที่ใช้งบประมาณต่ำและใช้งานง่าย
      อย่างไรก็ตาม เทคโนโลยีดังกล่าวอาจไม่มีประโยชน์ใดๆ เลยกับโครงการวิจัยที่ขาดการวางแผนที่ดี หรือขาดการประกันคุณภาพการวิจัย เพราะความผิดพลาดเกิดมาก่อนขั้นตอนการบริหารจัดการข้อมูลตามที่กล่าวข้างต้น ข้อมูลจากการวิจัยมีคุณค่าสูงมาก เพราะเป็นฐานของความรู้ หากมีคุณภาพก็มีโอกาสก่อประโยชน์ได้อเนกอนันต์ แต่หากไม่มีคุณภาพก็เกิดผลเสียได้มากไม่ยิ่งหย่อน จึงสมควรได้รับการจัดการที่รอบคอบ มีกระบวนการที่ได้มาตรฐาน และให้ผลงานพร้อมรับการตรวจ¬สอบจากผู้ประเมินภายนอกตลอดเวลา เพื่อแสดงถึงความรับผิดชอบต่อสังคม

เอกสารอ้างอิง
 1. Day, S.; Fayers, P., and Harvey, D. Double data entry: what value, what price? Control Clin Trials. 1998 Feb; 19(1):15-24.
 2. Gibson, D.; Harvey, A. J.; Everett, V., and Parmar, M. K. Is double data entry necessary? The CHART trials. CHART Steering Committee. Continuous, Hyperfractionated, Accelerated Radiotherapy. Control Clin Trials. 1994 Dec; 15(6):482-8.
 3.  Reynolds-Haertle, R. A. and McBride, R. Single vs. double data entry in CAST. Control Clin Trials. 1992 Dec; 13(6):487-94.
 4.  King, D. W. and Lashley, R. A quantifiable alternative to double data entry. Control Clin Trials. 2000 Apr; 21(2):94-102.
 
 

Untitled Document
Article Location
Volume 1 Number 2

Untitled Document
Article Option
       Abstract
       Fulltext
       PDF File
Untitled Document
 
ทำหน้าที่ ดึง Collection ที่เกี่ยวข้อง แสดง บทความ ตามที่ีมีใน collection ที่มีใน list Untitled Document
Another articles
in this topic collection

 
Editorials (บทบรรณาธิการ)
 
FORECASTING MODELS FOR MONTHLY PATIENT MOVEMENTS IN ADMISSIONS AND DISCHARGES OF RAJAVITHI HOSPITAL (ตัวแบบการพยากรณ์ การเคลื่อนไหวการรับและการจําหน่ายผู้ป่วยรายเดือน ของโรงพยาบาลราชวิถี ADMISSIONS AND DISCHARGES OF RAJAVITHI HOSPITAL)
 
Example article (บทความตัวอย่าง)
 
<More>
Untitled Document
 
This article is under
this collection.

Data Management
 
 
 
 
Copyright © 2006. Data Management & Biostatistics Journal.. All Rights Reserved
 
 
 
 

 


Warning: Unknown: Your script possibly relies on a session side-effect which existed until PHP 4.2.3. Please be advised that the session extension does not consider global variables as a source of data, unless register_globals is enabled. You can disable this functionality and this warning by setting session.bug_compat_42 or session.bug_compat_warn to off, respectively in Unknown on line 0