คำถามยอดนิยม
ไทมไลน์
แชท
มุมมอง
เซนเซอร์รูปภาพ
จากวิกิพีเดีย สารานุกรมเสรี
Remove ads
เซนเซอร์รูปภาพ (อังกฤษ: image sensor) คืออุปกรณ์ที่แปลงภาพที่เห็นด้วยตาเป็นสัญญาณอิเล็กทรอนิกส์ โดยมากแล้วจะเป็นส่วนประกอบในกล้องดิจิทัล และอุปกรณ์ที่เกี่ยวกับภาพอื่น ๆ เซนเซอร์ในยุคแรก ๆ นั้นจะมีลักษณะเป็นกระบอกกล้องวีดิทัศน์ ต่อมาจึงพัฒนาเป็นอุปกรณ์ถ่ายเทประจุ หรือเซนเซอร์พิกเซลตอบสนอง (charge-coupled device - CCD) แบบกึ่งตัวนำเมทัลอ็อกไซด์ควบเสริม (complementary metal-oxide-semiconductor - CMOS)

Remove ads
ข้อแตกต่างระหว่าง CCD และ CMOS
สรุป
มุมมอง
กล้องดิจิทัลในปัจจุบันมักใช้เซนเซอร์รูปภาพแบบ CCD หรือ CMOS ซึ่งทั้งสองประเภทสามารถตรวจจับแสงและแปลงเป็นสัญญาณอิเล็กโทรนิคได้เหมือนกัน แต่เทคโนโลยีเซนเซอร์ CCD มีมานานกว่าและแทบจะเรียกได้ว่าเป็นเซนเซอร์รูปภาพที่ครองตลาดสำหรับผู้บริโภค โดย CCD เริ่มมีมาตั้งแต่ปี 1993 และพัฒนาเรื่อยมาจนกระทั่ง CMOS เริ่มมามีส่วนแบ่งตลาดและเกือบจะทดแทนเทคโนโลยี CCD ในปี 2008[1]
เซนเซอร์แบบ CCD มีลักษณะเป็นอุปกรณ์อนาล็อก ประกอบไปด้วยหลอดโฟโต้ไดโอดทำด้วยซิลิคอน เมื่อแสงตกกระทบตัวชิปแล้วจะถูกเก็บไว้เป็นประจุอิเล็กโทรนิกปริมาณน้อย ๆ ในตัวเซนเซอร์ ซึ่งประจุเหล่านี้จะถูกแปลงไปเป็นแรงดันไฟฟ้าทีละหนึ่งพิกเซลขณะที่ถูกอ่านจากตัวชิป จากนั้นกระแสไฟในตัวกล้องจะแปลงแรงดันไฟฟ้านี้ไปเป็นข้อมูลดิจิทัลอีกทีหนึ่ง
ชิปแบบ CMOS มีลักษณะเป็นเซนเซอร์พิกเซลตอบสนอง ที่สร้างโดยกระบวนการประจุกึ่งตัวนำสำหรับ CMOS ซึ่งจะมีแผงวงจรเพิ่มขึ้นมาข้างเซนเซอร์ภาพเพื่อแปลงพลังงานแสงเป็นแรงดันไฟฟ้า จากนั้นแผงวงจรเสริมบนตัวชิปก็จะแปลงแรงดันไฟฟ้านั้นเป็นข้อมูลดิจิทัลได้ทันที
ชิปแบบ CMOS (Complementary Metal Oxide Semiconductor): ใช้กับ โทรศัพท์มือถือ ราคาประหยัด ถึง ปานกลาง ซึ่งเป็น โทรศัพท์มือถือ ส่วนมากในท้องตลาด ในการคำนวณค่าของแสงที่มาตกกระทบที่แต่ละ Photosite จะมีการประจุค่านั้นโดยตรง เช่นเดียวกับ CCD แต่การส่งผ่านข้อมูลต้องอาศัยสายข้อมูลขนาดเล็ก ไปทำการประมวลผลอีกทอดหนึ่ง อาศัยเทคโนโลยีการผลิตแบบเก่า ซึ่งเป็นแบบเดียวกับการผลิต Microprocessor จึงเต็มไปด้วยสัญญาณรบกวน และมีผลทำให้เกิดการลดทอนคุณภาพของภาพถ่าย ตัวเซนเซอร์เองมีความผิดพลาดในการส่งข้อมูลสูง มีความไวต่อแสงน้อย จึงมีผลทำให้คุณภาพของภาพถ่ายที่ได้ด้อยกว่า CCD ส่วนการผลิตสามารถทำได้บนแผ่นซิลิคอนมาตรฐานทั่วไป จึงทำให้ต้นทุนในการผลิตต่ำกว่า CCD
ชิปแบบ CCD (Charge Coupled Device): เป็นเทคโนโลยีที่ใหม่กว่า สามารถถ่ายภาพได้คุณภาพที่ดีกว่า แต่ก็มีต้นทุนที่สูงกว่าเช่นกัน มักนำมาใช้กับ โทรศัพท์มือถือ ราคาแพง ในการคำนวณค่าของแสงที่มาตกกระทบที่แต่ละ Photosite จะมีการประจุค่านั้นโดยตรง เช่นเดียวกับ CMOS และจะแปลงค่าแสงที่เป็น อนาล็อก ให้เป็นแบบ ดิจิทัล ซึ่งกระบวนการเหล่านี้เกิดขึ้นอย่างรวดเร็ว และส่งประจุได้โดยตรงไปยัง Chip โดยไม่เกิดการตัดทอนสัญญาณ หรือสิ่งที่รบกวนสัญญาณภาพ ซึ่งเกิดจากเทคโนโลยีกระบวนการผลิตขั้นสูง เพื่อให้เซนเซอร์มีคุณภาพ และไวต่อแสงที่มาตกกระทบ ซึ่งทำให้คุณภาพของภาพถ่ายที่ได้ดีกว่า CMOS แต่ CCD ก็ยังต้องใช้พลังงานมากกว่า CMOS อยู่ และการผลิดต้องใช้แผ่นซิลิคอนแบบพิเศษที่ผลิตขึ้นมาโดยเฉพาะ จึงทำให้ต้นทุนในการผลิตนั้นสูงกว่า CMOS ไปด้วย
เทคโนโลยีทั้งสองแบบไม่ได้มีข้อได้เปรียบที่ชัดเจนในด้านคุณภาพของภาพ ในด้านหนึ่ง เซนเซอร์แบบ CCD จะมีโอกาสเกิดรอยเปื้อนแนวยาวจากแหล่งแสงที่สว่างจ้าได้ยามที่ตัวเซนเซอร์ถูกใช้งานอย่างหนัก แต่อุปกรณ์ถ่ายเทประจุระดับสูงจะไม่ประสบปัญญานี้ ส่วนเซนเซอร์ CMOS ก็มีโอกาสเกิดผลข้างเคียงที่ไม่พึงประสงค์จากชัตเตอร์แบบหมุนได้มากกว่า
การประยุกต์ใช้เซนเซอร์ CMOS สามารถทำได้โดยใช้อุปกรณ์ประกอบที่น้อยกว่า ใช้พลังงานน้อยกว่า และสามารถแสดงผลได้เร็วกว่า CCD ส่วนเซนเซอร์ CCD นั้นเป็นเทคโนโลยีที่มีการพัฒนามายาวนานกว่าและเทียบเคียงได้กับ CMOS ในหลาย ๆ ด้าน[2][3] นอกจากนี้แล้ว ต้นทุนการผลิต CMOS ก็ต่ำกว่าเซนเซอร์ CCD
สถาปัตยกรรมที่เป็นลูกผสมระหว่าง CCD และ CMOS มีชื่อว่า "sCMOS" โดยประกอบไปด้วยแผงวงจรรวมสำหรับอ่านผล CMOS (CMOS readout integrated circuits - ROICs) ที่เชื่อมต่อวัสดุซับสเตรทภาพ CCD ทั้งนี้ เทคโนโลยีดังกล่าวถูกพัฒนาเพื่ออุปกรณ์ตรวจจับภาพอินฟราเรดและในปัจจุบันได้นำมาปรับใช้กับเทคโนโลยีอุปกรณ์ตรวจจับที่มีซิลิคอนเป็นส่วนประกอบ อีกกรรมวิธีหนึ่ง จะใช้ระยะที่เล็กมาก ๆ ที่มีในเทคโนโลยี CMOS รุ่นใหม่ ๆ ไปใช้กับโครงสร้างที่คล้ายกับ CCD ด้วยเทคโนโลยีของ CMOS ทั้งหมด หรือคือนำเทคโลโยีดิจิทัลไปใช้กับโครงสร้างอนาล็อก โดยวิธีนี้จะใช้การแยกประตูโพลีซิลิคอนแต่ละช่องด้วยระยะที่เล็กมาก ๆ เซนเซอร์เหล่านี้ยังคงอยู่ในขั้นตอนวิจัยและพัฒนา และจะสามารถผนวกเอาศักยภาพต่าง ๆ ของทั้ง CCD และ CMOS เข้าไว้ด้วยกัน
นอกจากนี้ นับแต่ปี 2006 ทางบริษัทผู้ผลิตเซนเซอร์ Panasonic ยังได้พัฒนาเซนเซอร์ที่เรียกว่า Live-MOS โดยใช้เทคโนโลยี MOS ซึ่งให้ภาพคุณภาพสูงแต่กินพลังงานน้อยกว่า CCD เนื่องจากในแต่ละพิกเซลจะมีส่วนเชื่อมต่อที่น้อยลง ภาพที่ได้จะเสมือนส่งผ่านให้ชมแบบ "ทันที" (live) แม้จะไม่ได้ใช้กรรมวิธีการแปลงแบบดั้งเดิมในเซนเซอร์ CCD
Remove ads
คุณสมบัติของ Image Sensor
สรุป
มุมมอง
1. ความลึกสีหรือ Color Depth หมายถึง จำนวนเฉดสีที่ Image Sensor สามารถถ่ายทอดออกมาได้ ยิ่งความลึกสีมาก จำนวนเฉดสีของภาพก็จะมากขึ้น หมายถึง เราจะได้ภาพที่มีคุณภาพดีขึ้นด้วย ความลึกสีจะบอกเป็นจำนวน Bit/สี หรือ Bit/3สี เช่น CCD ให้ภาพความลึกสี 12bit/สี ก็เท่ากับ 36 bit จำนวนเฉดสีที่ Image Sensor สามารถถ่ายทอดได้สามารถคำนวณได้โดยใช้สูตร
- จำนวนเฉดสี/สี = 2 ยกกำลัง Bit สี
- จำนวนเฉดสีทั้งหมด = จำนวนเฉดสี/สี ยกกำลัง 3
เช่น Image Sensor ให้ภาพ 8 bit/สี จะมีเฉดสี 28 = 256 สี จำนวนเฉดสีทั้งหมดเท่ากับ 2563 = 16.77 ล้านเฉดสี
Image Sensor ของกล้องดิจิทัลในปัจจุบันจะให้ความลึกสีที่ 8 bit/สี ถ้าเป็นกล้องที่คุณภาพดีจะอยู่ที่ 10 หรือ 12 bit/สี
และถ้าเป็นกล้องระดับมืออาชีพจะอยู่ที่ 12-14 bit/สี ส่วนสแกนเนอร์คุณภาพสูงจะอยู่ที่ 16 bit/สี
- 12 bit/สี = 36 bit = 68,719, 476,736 หรือ 68,719 ล้านเฉดสี
- 16 bit/สี = 48 bit = 281,474, 976,710,656 หรือ 2.8 ล้านล้านเฉดสี
จะเห็นว่าจำนวน Bit สียิ่งมากจะยิ่งได้ภาพที่มีเฉดสีดีขึ้นเรื่อย ๆ ซึ่งกล้องระดับมืออาชีพจะเน้นเรื่องจำนวน Bit สีอย่างมาก ยิ่ง Bit สีมาก การไล่ระดับโทนสีในส่วนสว่างและส่วนมืดซึ่งเป็นปัญหาของกล้องดิจิทัลก็จะลดลงเรื่อย ๆ (ภาพจำนวน Bit สี)
2. Image Size หรือขนาดภาพ หมายถึงจำนวน Pixel ที่จะปรากฏบนภาพ ยิ่งจำนวน Pixel มากจะได้ภาพที่สามารถนำไปขยายใหญ่ได้มากขึ้นโดยไม่เกิดการแตก คล้ายกับฟิล์มเกรนหยาบกับเกรนละเอียด ขนาดภาพของ Image Sensor จะบอกเป็นจำนวน Effective Pixel เช่น กล้องมี Effective Pixel ขนาด 6.17 ล้านพิกเซล
การดูว่าจำนวน Pixel เท่าไรจะเพียงพอต่อการใช้งาน จะดูจากขนาดภาพที่ต้องการใช้งานเป็นหลัก เช่น ต้องการภาพไปใช้ส่ง E-Mail ซึ่งภาพจะมีขนาดประมาณ 4.87 แสนพิกเซล ใช้กล้องขนาด 1 ล้านพิกเซลก็เพียงพอ แต่ถ้าไปใช้งานขยายภาพขนาด 8.25x11.5 นิ้ว ควรมีความละเอียดประมาณ 8.5 ล้านพิกเซลจะได้ภาพคุณภาพสูงสุด เป็นต้น การใช้ Image Sensor ที่มีความละเอียดสูงเกินกว่าขนาดภาพที่ต้องการไม่เกิดประโยชน์ในการใช้งานใด ๆนอกจากจะต้องจ่ายค่ากล้องที่มีราคาแพงขึ้น ใช้แบตเตอรี่มากขึ้น เปลืองการ์ดเก็บข้อมูลมากขึ้น
จำนวน Pixel ของตามนุษย์ประมาณ 120 ล้านพิกเซล ฟิล์ม 35 มม.เกรนละเอียดมาก ๆ เช่น Fujichrome Provia 100F ขนาด 135 มม. จะมีจำนวน Pixel อยู่ประมาณ 24 ล้านพิกเซล
3. Aspect Ratio หรือ สัดส่วนภาพ หรือสัดส่วนของภาพด้านกว้าง:ด้านยาว สัดส่วนตรงนี้มีความสำคัญกับการนำภาพไปใช้งาน เช่น ต้องการใช้อัดขยายภาพขนาด 4x6 นิ้ว เท่ากับภาพมีสัดส่วน 1:1.5 แต่ใช้กล้องดิจิทัลที่มีสัดส่วนกว้างยาว 1200x1600 พิกเซล หรือ 1:1.33 สัดส่วนกว้างยาวของภาพที่ต้องการและ Image Sensor ไม่เท่ากัน เมื่อนำภาพไปขยายจะได้ภาพไม่เต็มกระดาษ หรือเกิดการตัดส่วนภาพบนกระดาษไป กล้องดิจิทัลระดับมือสมัครเล่นจะมีสัดส่วนภาพอยู่ประมาณ 1:1.33 เพื่อให้เข้ากับจอมอนิเตอร์หรือ TV ส่วนกล้องดิจิทัลระดับมืออาชีพจะมีสัดส่วนประมาณ 1:1.5 ซึ่งเท่ากับฟิล์มขนาด 35 มม.
4. ความไวแสง หรือ Sensitivity ความไวแสงของ Image Sensor เป็นความไวแสงที่เทียบจากความไวแสงของฟิล์มในมาตรฐานของ ISO (International Standard Organization) ยิ่งความไวแสงสูงจะทำให้สามารถใช้ความเร็วชัตเตอร์สูงหรือช่องรับแสงแคบได้มากกว่า กล้องดิจิทัลส่วนใหญ่จะเริ่มความไวแสงที่ความไวแสงประมาณ ISO 100 แต่สามารถเลือกความไวแสงได้หลายค่าในกล้องตัวเดียว เช่น 100 , 200, 400, 800, 1600 ซึ่งไม่เหมือนฟิล์มที่จะไม่สามารถเปลี่ยนความไวแสงฟิล์มได้(ยกเว้นนำไปล้างเพิ่มหรือลดเวลาล้าง) และสามารถถ่ายภาพแต่ละภาพโดยใช้ความไวแสงที่แตกต่างกันได้ (ส่วนฟิล์มต้องตั้งความไวแสงค่าเดียวตลอดเวลา) ทำให้สะดวกในการใช้งานในสภาพแสงต่าง ๆ กัน
การปรับตั้งความไวแสงสูงขึ้นในกล้องดิจิทัลจะเกิดสัญญาณรบกวน ทำให้ภาพมีคุณภาพลดลงไปบ้าง เช่นเดียวกับการเพิ่มเวลาล้างของฟิล์มถ่ายภาพ
5. ขนาดของ Image Sensor หากเราใช้ตัว Image Sensor ขนาดใหญ่มีแนวโน้มจะให้คุณภาพที่ดีกว่า Image Sensor ขนาดเล็ก (จำนวน pixel เท่ากัน) เพราะจะมีขนาดของ Photosite ใหญ่กว่า ทำให้ไวต่อแสง มี Bit สีมากกว่า มีความคมชัดและรายละเอียดดีกว่า แต่ราคาจะแพงมากขึ้นตามขนาดของ Image Sensor ที่ใหญ่ขึ้น ตัวกล้องจะใหญ่ขึ้นตามด้วย จึงใช้เฉพาะกล้องระดับมืออาชีพเท่านั้นชนิดของ Image Sensor
Remove ads
ประสิทธิภาพ

ตัววัดประสิทธิภาพเซนเซอร์มีอยู่ด้วยกันหลายตัวที่สามารถนำมาใช้ประเมินประสิทธิภาพของเซนเซอร์รูปภาพ เช่น ช่วงรายละเอียดแสง (dynamic range), สัดส่วนสัญญาณต่อคลื่นรบกวน (signal-to-noise ratio) เป็นต้น สำหรับตัวเซนเซอร์ประเภทที่เทียบเคียงกันได้นั้น ช่วงรายละเอียดแสงและสัดส่วนดังกล่าวจะสูงขึ้นเมื่อขนาดเพิ่มมากขึ้น
การแยกสี
สรุป
มุมมอง

เซนเซอร์ภาพโดยตัวมันเองแล้วมีลักษณะเป็น "ขาว-ดำ" เพื่อให้ตัวเซนเซอร์ส่งผ่านสี จึงต้องใช้กรรมวิธีการแยกสี ซึ่งมีอยู่ด้วยกัน 3 ประเภท
เซนเซอร์พร้อมตัวกรองโมเสก
พิกเซลภาพของเซนเซอร์จะจัดเรียงบนระนาบเดียว และแต่ละพิกเซลจะถูกครอบด้วยตัวกรองของแต่ละสี โดยการจัดวางตำแหน่งตัวกรองมีอยู่ด้วยกันหลายวิธี ตามความไวแสงและการคัดลอกสี ยิ่งความเร็วมากขึ้น สีที่ได้จะยิ่งผิดเพี้ยน
- RGGB หรือ เซนเซอร์เบเยอร์ (Bayer sensor) มีต้นทุนต่ำและพบได้มากที่สุด เพราะเริ่มมีใช้แรกสุด จะใช้ตัวกรองสีที่ส่งผ่านแสงแดง, เขียว หรือน้ำเงินไปยังเซนเซอร์พิกเซลที่กำหนดไว้ ทำให้เกิดช่องตารางซ้อนที่ไวต่อสีแดง, เขียว และน้ำเงิน ส่วนสีที่ขาดไปจะถูกผสมโดยใช้อัลกอริทึ่มแบบ demosaic ทั้งนี้ เพื่อหลีกเลี่ยงข้อมูลสีที่ได้จากการผสมแล้ว เทคนิคประเภทสุ่มคู่ตำแหน่งสีจะใช้กรรมวิธีแบบ piezo เพื่อขยับเซนเซอร์สีแบบขั้นพิกเซล เซนเซอร์เบเยอร์ยังมีตัวเซนเซอร์แสงด้านหลัง ที่แสงลอดเข้าไปตกกระทบซิลิคอนที่ไวต่อแสงจากด้านตรงข้ามกับตำแหน่งตัวต้านทานประจุและสายไฟ เพื่อให้ส่วนต่อเชื่อมเหล็กด้านตัวอุปกรณ์ไม่ไปบังแสง และประสิทธิภาพดีขึ้น[4][5]
- RGBW มีความไวต่อแสงและระดับยอมรับการรับแสง (exposure latitude) มากกว่า (โดยปกติจะไวแสงในระดับ 1.5-2 และ 1 สต็อป) สำหรับเซนเซอร์ RGBW แบบพิเศษ ได้แก่ เซนเซอร์ RGBW ของบริษัทโกดัก
- RGEB (แดง - เขียว - เขียวมรกต - น้ำเงิน)
- CGMY (น้ำเงิน - เขียว - บานเย็น - เหลือง)
- RYYB (Huawei SuperSpectrum) เป็นเซนเซอร์แบบใหม่ที่ถูกวิจัยและคิดค้นขึ้นโดยบริษัท Huawei ร่วมกับบริษัท Leica โดยเปลี่ยนจากการรับแสงสีเขียวในเซนเซอร์ RGGB เป็นสีเหลือง ทำให้ประสิทธิภาพในการรับแสงดีขึ้นถึง 40% เซนเซอร์ RYYB ถูกนำไปใช้ครั้งแรกใน Huawei P30 Series และมีแนวโน้มว่าจะถูกนำไปใช้ในกล้องรุ่นใหม่ของ Leica ต่อไป
เซนเซอร์พร้อมพิกเซลครบสี
เทคโนโลยีที่เพื่อให้แต่ละพิกเซลแยกแม่สีครบทั้งสามสี แบบแรกเริ่มมีวางจำหน่ายโดยบริษัทซิกม่า และแบบที่สองเริ่มมีปรากฏเป็นต้นแบบในช่วงกลางปี 2008
เซนเซอร์โฟวีออน (Foveon) X3
เซนเซอร์ตรวจจับภาพของโฟวีออนใช้เซนเซอร์พิกเซลที่เรียงเป็น 3 ชั้น แดง, เขียว, แดง ทำการแยกแสงโดยอาศัยคุณสมบัติดูดซับแสงที่ไม่ขึ้นกับความยาวคลื่นของซิลิคอน เพื่อให้ทุก ๆ ตำแหน่งสามารถรับสัมผัสช่องสีทั้งสามได้ทั้งหมด
เซนเซอร์ X3 มีใช้ในกล้องของซิกม่า
เซนเซอร์ RGB ของนิคอน
นิคอน ได้จดสิทธิบัตรเซนเซอร์ไว้เมื่อวันที่ 9 สิงหาคม 2007[6] โดยตัวเซนเซอร์แยกแม่สีจะประกอบไปด้วยหลอดโฟโต้ไดโอดและเลนส์ย่อย (microlens) สามเลนส์ในแต่ละพิกเซล เลนส์ย่อยดังกล่าวจะส่งผ่านแสงไปยังกระจกสองสีบานแรก ซึ่งส่วนที่เป็นสีน้ำเงินจะผ่านกระจกไปตกกระทบกับตัวตรวจจับสีน้ำเงินเข้ม ส่วนสีเขียวและแดงจะสะท้อนไปยังกระจกบานที่สอง ซึ่งจะสะท้อนสีเขียวไปยังตัวตรวจจับสีเขียว และส่งผ่านสีแดงกับส่วนที่เป็นอินฟราเรดไปยังกระจกบานที่สาม กระจกบานนี้จะสะท้อนส่วนสีแดงไปยังตัวตรวจจับสีแดงและส่วนดูดซับคลื่นอินฟราเรด[7]
แม้ว่าตัวต้นแบบของเซนเซอร์นี้จะมีมาตั้งแต่ปี 2008 แต่สิทธิบัตรดังกล่าวดูจะยังไม่สามารถนำมาผลิตใช้งานในอนาคตอันใกล้เนื่องจากความซับซ้อนของเทคโนโลยี
หากเปรียบเทียบกับระบบแยกสีอื่นๆ ยกเว้นระบบสามเซนเซอร์แล้ว เทคโนโลยีนี้มีข้อได้เปรียบตรงที่ประสิทธิภาพการใช้แสง คิดเป็น 1.5 เท่าเมื่อเทียบกับเซนเซอร์ RGBW และ 3 เท่าเมื่อเทียบกับเซนเซอร์ที่มีตัวกรองเบเยอร์ หากเทียบกับเซนเซอร์โฟวีออน X3 เทคโนโลยีนี้มีข้อได้เปรียบในเรื่องสี และหากเทียบกับระบบสามเซนเซอร์แล้ว ระบบนี้ใช้ประโยชน์จากกระจกและไม่จำเป็นต้องมีการจัดเรียงตำแหน่งระบบเลนส์ที่แม่นยำแบบ 3CCD[6]
ระบบแยกสีสามเซนเซอร์
ระบบแยกสีสามเซนเซอร์ หรือที่เรียกว่า 3CCD ใช้เซนเซอร์รูปภาพแบบภินทนะ (discrete image sensor) สามตัว โดยแยกสีด้วยปริซึ่มสองสี ซึ่งถือได้ว่าเป็นเซนเซอร์ที่มีคุณภาพดีที่สุด และมีราคาแพงกว่าเซนเซอร์เดี่ยว แสงจะลอดผ่านเข้ามาในตัวกล้อง และตกกระทบกับปริซึ่มคู่ ซึ่งทำหน้าที่แยกแสงออกเป็นแม่สีหลัก แดง, เขียว และน้ำเงิน โดยแต่ละลำแสงจะส่องผ่านไปยังเซนเซอร์ (โดยมากแล้วจะใช้ CCD จึงเป็นที่มาของชื่อ 3CCD) ทั้งนี้ ระบบการแยกสามสีนี้มักมีใช้ในกล้องถ่ายวีดิทัศน์ระดับกลางขึ้นไป
ข้อได้เปรียบของระบบแยกสีสามเซนเซอร์เมื่อเทียบกับเซนเซอร์เดี่ยว
- การส่งผ่านสีดีกว่า และไม่ประสบปัญหาลายลูกคลื่น (moire)
- ความละเอียดภาพสูงกว่า เพราะไม่จำเป็นต้องมีการกรองเพื่อจัดการลดลายลูกคลื่น
- ไวต่อแสงกว่าและระดับจุดรบกวน (noise) ต่ำกว่า
- สามารถปรับแต่งค่าตัวกรองให้กับแต่ละตัวเซนเซอร์ทำให้การแปลงค่าสีกับแหล่งแสงที่ไม่ปกติทำได้ดีกว่า
ข้อเสียของระบบแยกสีสามเซนเซอร์เมื่อเทียบกับเซนเซอร์เดี่ยว
- ขนาดที่ใหญ่กว่า
- ระบบนี้ไม่สามารถใช้กับเลนส์ที่มีระยะโฟกัสสั้น
- ปัญหาข้อมูลสี เนื่องจากระบบสามเซนเซอร์ต้องการการจัดเรียงตำแหน่งที่แม่นยำ ดังนั้นหากเซนเซอร์มีขนาดใหญ่ขึ้นเพื่อให้ได้ความละเอียดที่ครบถ้วน ก็จะยิ่งยากที่จะให้ได้ความแม่นยำดังกล่าว
Remove ads
เซนเซอร์ที่ใช้ในกล้องดิจิทัล
Remove ads
เซนเซอร์เฉพาะทาง
เซนเซอร์เฉพาะทางมีไว้สำหรับการใช้งานประเภทต่าง ๆ เช่น ภาพตรวจจับความร้อน, การอัดภาพหลายช่วงคลื่น, กล้องส่องลำคอ, กล้องรังสีแกมม่า, เซนเซอร์สำหรับรังสีเอกซ์ และการใช้งานทางดาราศาสตร์ที่ต้องการความแม่นยำสูง
บริษัทผู้ผลิต
บริษัทผู้ผลิตรายใหญ่ที่จำหน่ายเซนเซอร์รูปภาพ ได้แก่
- Agilent
- Aptina
- Canesta
- Canon
- Cypress Semiconductor
- Eastman Kodak
- ESS Technology
- Fuji
- MagnaChip
- Matsushita
- Micron Technology
- Mitsubishi
- Nikon
- OmniVision Technologies
- PixArt Imaging
- Pixim
- Samsung
- Sharp
- Sony
- STMicroelectronics
- Toshiba
- TowerJazz
- TransChip
- Trusight
อ้างอิง
แหล่งข้อมูลอื่น
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads