นิยามและองค์ประกอบทางเทคนิคของหน่วยผลิตเคลื่อนที่ (OB)
ระบบรถ OB หรือ Outside Broadcast เป็นรถยต์ที่มีกระบวนการจัดการถ่ายทอดสดที่มีความซับซ้อน จากต้องจัดการกับแหล่งสัญญาณกล้องจำนวนมาก (Multi-camera) เพื่อสร้างประสบการณ์การรับชมที่หลากหลายและต่อเนื่อง การใช้ระบบสวิตช่วยให้ผู้กำกับสามารถเลือกมุมกล้องที่เหมาะสมที่สุดในแต่ละวินาที เช่น ภาพมุมกว้างเพื่อแสดงบรรยากาศของสนามแข่งขัน หรือภาพโคลสอัปเพื่อแสดงอารมณ์ของวิทยากรในงานสัมมนา โครงสร้างพื้นฐานภายในรถ OB ถูกออกแบบมาเพื่อความปลอดภัยและความเสถียรของสัญญาณเป็นอันดับแรก
วิวัฒนาการและการใช้งาน Outside Broadcasting ในระดับสากล
ประวัติศาสตร์ของ Outside Broadcast เริ่มต้นขึ้นในช่วงต้นคริสต์ศตวรรษที่ 20 ก่อนที่จะขยายตัวเข้าสู่ยุคโทรทัศน์. พัฒนาการของ OB มักจะควบคู่ไปกับเหตุการณ์สำคัญของมนุษยชาติ ซึ่งทำหน้าที่เป็นแรงขับเคลื่อนให้เกิดนวัตกรรมทางเทคโนโลยีใหม่ๆ
ยุคบุกเบิกและโทรทัศน์ขาวดำ (ค.ศ. 1920 - 1950)
การถ่ายทอดสดนอกสถานที่ครั้งแรกของโลกเกิดขึ้นในรูปแบบวิทยุเมื่อปี ค.ศ. 1923 โดย BBC ได้ถ่ายทอดการแสดงโอเปร่าเรื่อง The Magic Flute จากโรงละคร Royal Opera House ในลอนดอน.2 ต่อมาในยุคโทรทัศน์ BBC ได้เริ่มทดลองถ่ายทอดสดภาพจากสวนสาธารณะ Alexandra Palace ในปี ค.ศ. 1936 ซึ่งถือเป็นจุดเริ่มต้นของการนำกล้องโทรทัศน์ออกจากสตูดิโอ. หมุดหมายที่สำคัญที่สุดในยุคนี้คือการถ่ายทอดสดพระราชพิธีบรมราชาภิเษกของสมเด็จพระเจ้าจอร์จที่ 6 ในเดือนพฤษภาคม ค.ศ. 1937 โดยใช้รถ OB คันแรกของโลกที่ชื่อว่า MCR 1 (Mobile Control Room 1)
ในช่วงหลังสงครามโลกครั้งที่ 2 การถ่ายทอดสดกีฬาโอลิมปิกฤดูร้อนปี ค.ศ. 1948 ที่ลอนดอน กลายเป็นเหตุการณ์ที่กระตุ้นให้เทคโนโลยี OB พัฒนาอย่างรวดเร็ว เนื่องจากความต้องการรับชมการแข่งขันสดๆ จากขอบสนามมีเพิ่มมากขึ้น.ในยุคนี้ อุปกรณ์ส่วนใหญ่ยังมีขนาดใหญ่ หนัก และต้องใช้พลังงานไฟฟ้ามหาศาล รวมถึงต้องใช้เทคโนโลยีไมโครเวฟในการส่งสัญญาณกลับไปยังสถานีส่งหลัก
ยุคการเปลี่ยนผ่านสู่ระบบสีและการสื่อสารดาวเทียม (ค.ศ. 1960 - 1980)
ทศวรรษที่ 1960 คือยุคแห่งการปฏิวัติของระบบ OB ด้วยการนำระบบส่งสัญญาณผ่านดาวเทียมมาใช้งาน ทำให้การถ่ายทอดสดข้ามทวีปกลายเป็นความจริง เหตุการณ์ประวัติศาสตร์ที่แสดงถึงแสนยานุภาพของเทคโนโลยีนี้คือการถ่ายทอดสดภารกิจอะพอลโล 11 ที่มนุษย์ก้าวเหยียบบนดวงจันทร์ในปี ค.ศ. 1969 ซึ่งมีผู้ชมทั่วโลกกว่า 600 ล้านคน
ในส่วนของอุปกรณ์ภาพสี BBC ได้เริ่มให้บริการโทรทัศน์สีอย่างเป็นทางการในปี ค.ศ. 1967 ณ การแข่งขันเทนนิสวิมเบิลดัน โดยมีการพัฒนารถ OB รุ่นใหม่ที่เรียกว่า Type 2 Colour Mobile Control Room ซึ่งสามารถรองรับกล้องสีได้ถึง 6 ช่องสัญญาณ. นอกจากนี้ ในปี ค.ศ. 1963 ระบบ Instant Replay หรือการฉายภาพช้าได้ถูกนำมาใช้ครั้งแรกในการแข่งขันฟุตบอลระหว่างโรงเรียนทหารบกและทหารเรือของสหรัฐฯ โดยผู้กำกับ Tony Verna ซึ่งเปลี่ยนรูปแบบการชมกีฬาไปตลอดกาล.
ยุคดิจิทัลและความคมชัดสูง (ค.ศ. 1990 - ปัจจุบัน)
เมื่อก้าวเข้าสู่คริสต์ทศวรรษ 1990 อุตสาหกรรมโทรทัศน์เริ่มเปลี่ยนผ่านจากระบบแอนะล็อกสู่ระบบดิจิทัล ส่งผลให้รถ OB มีความสามารถในการประมวลผลที่ซับซ้อนขึ้นในขนาดที่เล็กลง. การมาถึงของระบบความคมชัดสูง (HD) ในทศวรรษที่ 2000 และระบบ 4K UHD ในทศวรรษที่ 2010 ทำให้ความต้องการแบนด์วิดท์ในการส่งสัญญาณเพิ่มขึ้นมหาศาล. รถ OB ยุคใหม่จึงเปลี่ยนจากการใช้สายสัญญาณทองแดง (Coaxial) มาเป็นสายไฟเบอร์ออปติก (Fiber Optic) เพื่อรองรับข้อมูลปริมาณมหาศาลโดยไม่มีการสูญเสียคุณภาพ.
คือสัญญาณภาพมาตรฐานที่ถูกสร้างขึ้นมาเพื่อให้คนทำงานด้านวิดีโอ กล้อง และโทรทัศน์ ใช้ตรวจสอบว่า "สีและแสง" ที่กำลังแสดงผลอยู่นั้น ถูกต้องตามมาตรฐานสากลหรือไม่
เพื่อให้เห็นภาพชัดเจน ผมสรุปหัวใจสำคัญของ Color Bar ไว้ดังนี้ครับ:
ทำไมต้องมี Color Bar?
ลองนึกภาพว่าถ้าหน้าจอมอนิเตอร์ของคนตัดต่อสีอมแดง แต่หน้าจอของสถานีส่งออกอากาศสีอมเขียว คนดูทางบ้านก็จะเห็นสีที่เพี้ยนไปหมด ดังนั้น Color Bar จึงทำหน้าที่เป็น "จุดอ้างอิง (Reference)" ให้ทุกคนปรับหน้าจอให้ตรงกัน
ส่วนประกอบสำคัญ (ที่คุณมักจะเห็นบ่อยๆ)
Color Bar ไม่ได้มีแค่สีเรียงกันสวยงาม แต่ละส่วนมีหน้าที่เฉพาะ:
แถบสี 7 สีด้านบน: (ขาว, เหลือง, ฟ้า, เขียว, ชมพู, แดง, น้ำเงิน) ใช้เช็กความถูกต้องของเฉดสี (Hue) และความสดของสี (Saturation)
แถบสีดำด้านล่าง (PLUGE): เป็นแถบสีดำ 3 ระดับที่ไล่ความมืด ใช้สำหรับปรับ Brightness (ความมืด-สว่าง) เพื่อให้มั่นใจว่าสีดำในวิดีโอจะไม่จมหายไปหรือสว่างจนกลายเป็นสีเทา
เสียงตื๊ดยาวๆ (Test Tone): มักมาคู่กับ Color Bar เพื่อใช้วัดระดับความดังของเสียง (Audio Level) ให้ไม่เบาหรือพีคจนเกินไป
สถานการณ์ที่เราจะเห็น Color Bar
ก่อนเริ่มรายการ: ในสมัยก่อน (หรือในระบบไฟล์ส่งงานปัจจุบัน) จะมี Color Bar ขึ้นประมาณ 30-60 วินาทีที่ต้นม้วน/ต้นไฟล์
ตอนสัญญาณขัดข้อง: เมื่อสถานีไม่สามารถส่งสัญญาณภาพปกติได้ ระบบจะปล่อย Color Bar ออกมาแทนเพื่อให้รู้ว่า "ระบบส่งสัญญาณยังทำงานอยู่ แต่ไม่มีภาพจากต้นทาง"
การตั้งค่ากล้อง: เมื่อใช้กล้องหลายตัวถ่ายงานเดียวกัน ช่างภาพจะเปิด Color Bar เพื่อปรับสีของกล้องทุกตัวให้ตรงกันก่อนเริ่มถ่าย
เพื่อความคล่องตัวในการรายงานข่าว โดยเฉพาะข่าวการปะทะ ของทหารไทย - กัมพูชา ปัจจุบัน นอกเหนือจากรถ OB (Outside Broadcasting), ระบบส่งสัญญาณภาพผ่านดาวเทียม, และ การส่งสัญญาฯผ่าน Fiber Optic แล้ว วงการโทรทัศน์ไทยได้หันมาใช้เทคโนโลยีที่เน้นความคล่องตัว (Mobility) และต้นทุนที่ต่ำกว่าผ่านระบบเครือข่ายอินเทอร์เน็ตและไร้สายเป็นหลัก
นี่คือ 3 วิธีการหลักที่สถานีโทรทัศน์ใช้ส่งภาพสดในปัจจุบัน:
ระบบรวมสัญญาณอินเทอร์เน็ต (Cellular Bonding Technology)
นี่คือวิธีการที่ นิยมที่สุด สำหรับงานข่าวภาคสนาม (ENG - Electronic News Gathering) ในไทยปัจจุบัน เพราะมีความคล่องตัวสูงมาก ทดแทนรถ OB ได้ในหลายสถานการณ์
หลักการทำงาน: อุปกรณ์นี้ (มักอยู่ในรูปแบบเป้สะพายหลังหรือติดหัวกล้อง) จะทำหน้าที่รวมความเร็วอินเทอร์เน็ตจาก SIM Card หลายๆ ค่ายพร้อมกัน (เช่น ใส่ซิม AIS, True, DTAC รวมกัน 4-8 ซิม) ร่วมกับ Wi-Fi และ LAN เพื่อสร้าง "ท่อส่งข้อมูล" ขนาดใหญ่ที่เสถียรที่สุดในการส่งภาพกลับสถานี
อุปกรณ์ที่ใช้: แบรนด์มาตรฐานที่สถานีข่าวไทยใช้กันแพร่หลายคือ LiveU และ TVU
ข้อดี: นักข่าวสามารถรายงานสดได้ทันทีจากทุกที่ที่มีสัญญาณโทรศัพท์ ไม่ต้องจองคิวรถดาวเทียม
ความเกี่ยวข้องกับ 5G: ในปัจจุบันอุปกรณ์ Bonding รุ่นใหม่รองรับ 5G ทำให้ส่งภาพความละเอียดสูง (4K) ได้ลื่นไหลขึ้นมาก
การส่งผ่านโปรโตคอล SRT (Secure Reliable Transport)
เป็นเทคโนโลยีที่กำลังเข้ามาแทนที่การส่งแบบเดิมในงานโปรดักชั่นและงานอีเวนต์ โดยใช้ อินเทอร์เน็ต (Public Internet) แต่มีความเสถียรสูง
หลักการทำงาน: เป็นการส่งสัญญาณภาพผ่านอินเทอร์เน็ตบ้านหรือออฟฟิศปกติ แต่ใช้โปรโตคอลพิเศษที่ชื่อว่า SRT ซึ่งถูกออกแบบมาเพื่อแก้ปัญหาภาพกระตุกหรือสัญญาณหาย (Packet Loss) โดยระบบจะมีการกู้คืนข้อมูลที่สูญหายระหว่างทางให้อัตโนมัติ ทำให้ภาพปลายทางคมชัดแม้เน็ตจะแกว่ง
การใช้งาน: เหมาะสำหรับการสัมภาษณ์แขกรับเชิญทางไกล หรือการส่งสัญญาณจากห้องจัดเลี้ยง (Event Hall) กลับมาที่สถานีโดยไม่ต้องลากสาย Fiber Optic ยาวๆ
ข้อดี: ดีกว่าระบบ RTMP แบบเก่า เพราะ Latency (ความหน่วง) ต่ำมาก และภาพไม่แตก
Mobile Journalism (MoJo) & Video Conference
ในข่าวด่วนหรือสถานการณ์ฉุกเฉิน สมาร์ทโฟนคืออุปกรณ์ถ่ายทอดสดที่เร็วที่สุด
แอปพลิเคชันเฉพาะทาง: สถานีโทรทัศน์จะใช้แอปฯ ของระบบ Bonding (เช่น LU-Smart หรือ TVU Anywhere) ติดตั้งในมือถือนักข่าว แอปฯ นี้จะเชื่อมต่อกับ Server ของสถานีโดยตรง ทำให้คุณภาพสัญญาณดีกว่าการ Live ผ่าน Facebook/YouTube ทั่วไป และสถานีสามารถควบคุมคุณภาพได้
Video Conference: การใช้ Zoom, MS Teams, หรือ vMix Call ดึงสัญญาณภาพแขกรับเชิญเข้าสู่ระบบออกอากาศโดยตรง ซึ่งกลายเป็นมาตรฐานปกติไปแล้วหลังยุคโควิด-19
จากสถานการณ์น้ำท่วม หาดใหญ่ การแจ้งเตือนภัยจะมีความสำคัญมาก โดย TV ของไทยสามารถรองรับระบบนี้ และได้ทำการทดสอบไปแล้วเมื่อช่วงปลายปี 2568
ระบบ EWS (Emergency Warning System) หรือบางครั้งเรียกว่า EWBS ซึ่งทำงานบนมาตรฐานทีวีดิจิทัล (DVB-T2) ที่ใช้อยู่ในปัจจุบัน มีรายละเอียดดังนี้
ระบบที่ใช้: EWS (Emergency Warning System)
ระบบนี้ไม่ใช่แค่การขึ้นตัววิ่งข่าวธรรมดา แต่เป็นฟีเจอร์ทางเทคนิคที่ฝังมากับคลื่นทีวีดิจิทัล เมื่อเกิดเหตุฉุกเฉิน กสทช. หรือศูนย์เตือนภัยสามารถส่งสัญญาณไปที่กล่องทีวี (Set-Top Box) หรือทีวีที่มีจูนเนอร์ในตัว เพื่อ:
แสดงผลทันที: ตัดเข้าหน้าจอเตือนภัย (Pop-up) หรือขึ้นแถบตัวอักษรวิ่ง (Superimpose) แทรกรายการปกติ
เสียงแจ้งเตือน: ส่งเสียงสัญญาณเตือนภัยฉุกเฉินออกมา
เปิดเครื่องอัตโนมัติ: (ในอนาคต/อุปกรณ์ที่รองรับ) สามารถสั่งเปิดเครื่องเพื่อแจ้งเตือนได้หากอยู่ในโหมด Standby
โครงข่าย (MUX) ที่สามารถใช้งานได้
ปัจจุบันโครงข่ายที่มีความพร้อมและได้ทำการ "ทดสอบระบบจริง" ไปแล้ว คือโครงข่ายของ กองทัพบก (ททบ.5) MUX 2 และ MUX 5
ช่องรายการที่รองรับ (อ้างอิงจากการทดสอบล่าสุด พ.ย. 68)
เมื่อกลางเดือนพฤศจิกายน 2568 กสทช. และ ททบ.5 ได้ทดสอบระบบนี้จริงในพื้นที่ จ.พะเยา และ จ.ชุมพร ผ่าน 11 ช่องรายการที่อยู่บนโครงข่ายดังกล่าว ได้แก่:
TV5 HD, TNN 16, Nation TV. Workpoint TV, True4U,GMM25, Mono29, ONE 31, Amarin TV, 7HD, และ PPTV
ช่วงเวลาสองทศวรรษระหว่างปี 1970 ถึง 1990 ถือเป็นยุคสมัยแห่งการเปลี่ยนแปลงที่รุนแรงและพลิกโฉมหน้ามากที่สุด (most disruptive period) ในประวัติศาสตร์ของเทคโนโลยีการตัดต่อสื่อ โดยมีจุดเริ่มต้นจากกระบวนการที่ต้องพึ่งพากลไกทางกายภาพและเทปอนาล็อก และสิ้นสุดลงด้วยการกำเนิดของระบบดิจิทัลและซอฟต์แวร์บนคอมพิวเตอร์ส่วนบุคคล การเปลี่ยนแปลงนี้ได้กำหนดนิยามใหม่ให้กับกระบวนการหลังการผลิต (post-production) ทั้งหมด
ยุคทศวรรษ 1970 และ 1980 ถูกครอบงำโดยกระบวนทัศน์ของ Linear Video Editing (การตัดต่อแบบเส้นตรง) ซึ่งโดยพื้นฐานแล้วคือกระบวนการคัดลอกเทปต่อเทป (tape-to-tape) ที่ทุกช็อตจะต้องถูกบันทึกลงในเทปมาสเตอร์ตามลำดับเหตุการณ์จริง ในทางกลับกัน ทศวรรษ 1990 เป็นจุดเริ่มต้นของการปฏิวัติโดย Non-Linear Editing (NLE) (การตัดต่อแบบไม่เป็นเส้นตรง) ซึ่งเป็นระบบที่ใช้คอมพิวเตอร์และฮาร์ดดิสก์ในการจัดเก็บและเข้าถึงฟุตเทจ ทำให้สามารถแก้ไขส่วนใดของโปรแกรมก็ได้โดยไม่จำเป็นต้องเรียงตามลำดับ ข้อสังเกตที่สำคัญทางประวัติศาสตร์คือ จนกระทั่งการมาถึงของระบบ NLE ในช่วงปลายทศวรรษ 1980 และต้น 1990 คำว่า "linear video editing" นั้นไม่เคยมีอยู่จริง ในยุคนั้นมันถูกเรียกง่ายๆ ว่า "video editing" 1 การเกิดขึ้นของ NLE ต่างหาก ที่บังคับให้อุตสาหกรรมต้องบัญญัติศัพท์ "Linear" (เส้นตรง) ขึ้นมาเพื่อใช้เรียกเทคโนโลยีแบบดั้งเดิมที่กำลังจะถูกแทนที่
วิศวกรหรือผู้ที่ดูแลระบบทางเทคนิคของสถานีโทรทัศน์มีความสำคัญอย่างยิ่งต่อการดำเนินงานของสถานีโทรทัศน์ทั้งหมด เปรียบเสมือน กระดูกสันหลัง ที่คอยดูแลและจัดการระบบทางเทคนิคทั้งหมดเพื่อให้การแพร่ภาพออกอากาศเป็นไปอย่างราบรื่น มีประสิทธิภาพ และมีคุณภาพสูงสุด
ความสำคัญของวิศวกรรมสถานีโทรทัศน์สามารถสรุปได้ดังนี้
วิศวกรของสถานีโทรทัศน์มีหน้าที่รับผิดชอบโดยตรงต่ออุปกรณ์และระบบทั้งหมดที่เกี่ยวข้องกับการออกอากาศ ตั้งแต่ห้องควบคุมการผลิต (Production Control Room), ห้องควบคุมการออกอากาศหลัก (Master Control Room), เครื่องส่งสัญญาณ, ไปจนถึงระบบสายอากาศ ซึ่งทั้งหมดนี้คือหัวใจสำคัญที่ทำให้ผู้ชมสามารถรับชมรายการต่างๆ ได้ หากไม่มีฝ่ายวิศวกรรมดูแลระบบเหล่านี้ การแพร่ภาพก็ไม่สามารถเกิดขึ้นได้
คุณภาพของสัญญาณภาพและเสียงที่ผู้ชมได้รับนั้นขึ้นอยู่กับการทำงานของฝ่ายวิศวกรรมโดยตรง พวกเขามีหน้าที่:
ตรวจสอบและปรับแต่งสัญญาณ: ดูแลให้ภาพมีความคมชัด สีสันถูกต้อง และเสียงดังฟังชัด ไม่มีสัญญาณรบกวน
ซ่อมบำรุงอุปกรณ์: ดูแลรักษาอุปกรณ์ต่างๆ ให้อยู่ในสภาพพร้อมใช้งานเสมอ เพื่อป้องกันปัญหาที่อาจเกิดขึ้นระหว่างการออกอากาศ
แก้ไขปัญหาเฉพาะหน้า: เมื่อเกิดเหตุขัดข้องทางเทคนิค เช่น ภาพหาย เสียงดับ หรือสัญญาณล่ม วิศวกรจะต้องเข้าแก้ไขสถานการณ์ให้กลับสู่ภาวะปกติโดยเร็วที่สุด
วงการโทรทัศน์มีการพัฒนาทางเทคโนโลยีอย่างรวดเร็ว จากระบบแอนะล็อกสู่ดิจิทัล และปัจจุบันก้าวไปสู่ความคมชัดระดับ HD, 4K หรือแม้กระทั่งการถ่ายทอดสดผ่านอินเทอร์เน็ต (Live Streaming) วิศวกรสถานีโทรทัศน์คือผู้ที่มีบทบาทสำคัญในการ:
ศึกษาและนำเทคโนโลยีใหม่ๆ มาปรับใช้: เพื่อให้สถานีมีความทันสมัยและสามารถแข่งขันในตลาดได้
ออกแบบและวางระบบ: วางแผนและติดตั้งระบบใหม่ๆ ให้เข้ากับการทำงานของสถานี
ฝึกอบรมบุคลากร: สอนให้เจ้าหน้าที่ฝ่ายต่างๆ สามารถใช้งานอุปกรณ์และเทคโนโลยีใหม่ได้อย่างถูกต้อง
การออกอากาศที่ต่อเนื่องและไม่มีสะดุดเป็นสิ่งสำคัญอย่างยิ่งต่อความน่าเชื่อถือของสถานีโทรทัศน์ ฝ่ายวิศวกรรมต้องวางแผนและดูแลระบบไฟฟ้าสำรอง ระบบสำรองข้อมูล และแผนฉุกเฉินต่างๆ เพื่อให้แน่ใจว่าสถานีจะสามารถออกอากาศได้อย่างต่อเนื่องตลอด 24 ชั่วโมง แม้ในสถานการณ์ที่ไม่คาดฝัน
โดยสรุป วิศวกรรมสถานีโทรทัศน์ คือส่วนงานที่ขาดไม่ได้ในการทำธุรกิจสถานีโทรทัศน์ เพราะเป็นผู้ที่ทำให้ "เนื้อหารายการ" ที่ฝ่ายผลิตสร้างสรรค์ขึ้นมา สามารถส่งไปถึงผู้ชมปลายทางได้อย่างมีคุณภาพและมีประสิทธิภาพสูงสุดนั่นเอง
เสาทีวีบนหลังคาบ้านในอดึตและปัจจุบัน ("เสาทีวี" ในทางเทคนิคที่ถูกต้องต้องเรียกว่า "สายอากาศ" แต่ในที่นี้ใช้เสาทีวี ตามความคุ้นเคยก็คนไทยนะครับ)
หากย้อนไปเมื่อสัก 30 ปีที่แล้ว ก่อนทีวีดาวเทียมและทีวีดิจิทัล บนหลังคาบ้านคนไทยส่วนใหญ่ จะมีเสารับสัญญาณทีวี ที่มีกิ่งก้านและความสูงมากเมื่อเทียบกับเสาทีวีในปัจจุบัน ในช่วงนั้นการรับสัญญาณทีวีแค่ละช่องก็จะมีเสารับสัญญาณเฉพาะช่องนั้นๆ เช่นช่อง 3 เป็นเสารับสัญญาณ ช่อง 7 อาจจะมีเสาที่รับสัญญาญได้ทุกช่องบ้าง แต่ก็จะรับสัญญาณได้ชัดไม่ครบทุกช่อง ที่สำคัญ สถานีส่งสัญญาณของทีวีในแต่ละช่อง จะอยู่ในตำแหน่งและทิศทางที่แตกต่างกัน ยิ่งหากเป็นต่างจังหวัด เราจะเห็นความสูงของเสาที่มีความสูงมากกว่า เสาทีวีในกรุ่งเทพ
กลับมาในยุคปัจจุบัน ในยุคทีวีดิจิทัล (ตอนปลาย) เราจะเห็นเสามีขนาดเล็กลงและมีเพียงเสาเดียว เนื่องจาก ทีวีดิจิทัล จะมีสถานีส่งสัญญาณที่อยู่ในตำแหน่งเดียวกัน และใน 1 ความถี่ก็สามารถส่งสัญญาณทีวีได้มากกว่า 1 ช่อง การรีบทีวีดิจิทัล จะมีแค่ 2 แบบ คือรับสัญญาณได้ และรับสัญญาณไม่ได้เท่านั้น ไม่มีสัญญาณรบกวนดังเช่นทีวีในอดีค