การรับรู้ข่าวสาร

โดย: PB [IP: 89.187.185.xxx]
เมื่อ: 2023-05-23 18:14:20
บริษัทสื่อสังคมออนไลน์ยังมีผลลัพธ์ที่หลากหลายในการจำกัดการแพร่กระจายของโฆษณาชวนเชื่อและข้อมูลที่ผิด: Facebook วางแผนที่จะมีผู้ดูแล 20,000 คนภายในสิ้นปีนี้ และกำลังใช้จ่ายหลายล้านเพื่อพัฒนาอัลกอริทึมตรวจจับข่าวปลอมของตนเอง นักวิจัยจากห้องปฏิบัติการวิทยาการคอมพิวเตอร์และปัญญาประดิษฐ์ (CSAIL) ของ MIT และสถาบันวิจัยคอมพิวเตอร์แห่งกาตาร์ (QCRI) เชื่อว่าแนวทางที่ดีที่สุดคือการไม่เน้นที่ข้อเท็จจริงของการอ้างสิทธิ์แต่ละรายการ แต่ให้สนใจที่แหล่งข่าวเอง เมื่อใช้เทคนิคนี้ พวกเขาได้สาธิตระบบใหม่ที่ใช้การเรียนรู้ของเครื่องเพื่อตรวจสอบว่าแหล่งที่มานั้นถูกต้องหรือมีอคติทางการเมืองหรือไม่ “หากเว็บไซต์เคยเผยแพร่ข่าวปลอมมาก่อน ก็มีโอกาสดีที่พวกเขาจะทำอีกครั้ง” รามี บาลี นักวิจัยหลังปริญญาเอก ผู้เขียนนำในรายงานฉบับใหม่เกี่ยวกับระบบกล่าว "ด้วยการขูดข้อมูลเกี่ยวกับไซต์เหล่านี้โดยอัตโนมัติ หวังว่าระบบของเราสามารถช่วยระบุได้ว่าไซต์ใดน่าจะทำสิ่งนี้ตั้งแต่แรก" Baly กล่าวว่าระบบต้องการบทความประมาณ 150 บทความเท่านั้นในการตรวจจับว่าแหล่งข่าวสามารถเชื่อถือได้หรือไม่ ซึ่งหมายความว่าสามารถใช้วิธีการแบบเดียวกับแหล่งข่าวเหล่านี้เพื่อช่วยปิดล้อมสำนักข่าวปลอมก่อนที่เรื่องราวจะแพร่กระจายออกไปในวงกว้างเกินไป ระบบนี้เป็นความร่วมมือระหว่างนักวิทยาศาสตร์คอมพิวเตอร์ที่ MIT CSAIL และ QCRI ซึ่งเป็นส่วนหนึ่งของมหาวิทยาลัย Hamad Bin Khalifa ในกาตาร์ ก่อนอื่น นักวิจัยใช้ข้อมูลจาก Media Bias/Fact Check (MBFC) ซึ่งเป็นเว็บไซต์ที่มีตัวตรวจสอบข้อเท็จจริงโดยมนุษย์ ซึ่งวิเคราะห์ความถูกต้องและความเอนเอียงของเว็บไซต์ข่าวมากกว่า 2,000 แห่ง ตั้งแต่ MSNBC และ Fox News ไปจนถึงฟาร์มเนื้อหาที่มีผู้เข้าชมน้อย จากนั้นพวกเขาป้อนข้อมูลนั้นไปยังอัลกอริทึมการเรียนรู้ของเครื่องที่เรียกว่าตัวแยกประเภท Support Vector Machine (SVM) และตั้งโปรแกรมให้จำแนกไซต์ข่าวในลักษณะเดียวกับ MBFC เมื่อได้รับ ข่าว ใหม่ ระบบมีความแม่นยำ 65 เปอร์เซ็นต์ในการตรวจจับว่ามี "ข้อเท็จจริง" ระดับสูง ต่ำ หรือปานกลาง และแม่นยำประมาณ 70 เปอร์เซ็นต์ในการตรวจจับว่าเอนเอียงซ้าย เอียงขวา หรือปานกลาง . ทีมงานพิจารณาว่าวิธีที่น่าเชื่อถือที่สุดในการตรวจหาทั้งข่าวปลอมและการรายงานที่มีอคติคือการดูที่คุณลักษณะทางภาษาทั่วไปในเรื่องราวของแหล่งที่มา รวมถึงความรู้สึก ความซับซ้อน และโครงสร้าง ตัวอย่างเช่น สำนักข่าวปลอมพบว่ามีแนวโน้มที่จะใช้ภาษาที่เกินความจริง อัตวิสัย และอารมณ์ ในแง่ของอคติ ช่องทางที่เอนเอียงไปทางซ้ายมีแนวโน้มที่จะใช้ภาษาที่เกี่ยวข้องกับแนวคิดเรื่องอันตราย/การดูแล และความเป็นธรรม/การแลกเปลี่ยนซึ่งกันและกัน เมื่อเทียบกับคุณสมบัติอื่นๆ เช่น ความจงรักภักดี อำนาจ และความศักดิ์สิทธิ์ (คุณสมบัติเหล่านี้แสดงถึง "รากฐานทางศีลธรรม" 5 ประการ ซึ่งเป็นทฤษฎีที่ได้รับความนิยมในจิตวิทยาสังคม) ผู้เขียนร่วม Preslav Nakov กล่าวว่าระบบยังพบความสัมพันธ์กับหน้า Wikipedia ของเต้าเสียบ ซึ่งประเมินตามความยาวทั่วไป — ยิ่งยาวยิ่งน่าเชื่อถือ — เช่นเดียวกับคำเป้าหมายอย่าง “สุดโต่ง” หรือ “ทฤษฎีสมคบคิด” พบแม้กระทั่งความสัมพันธ์กับโครงสร้างข้อความของ URL ของแหล่งที่มา เช่น URL ที่มีอักขระพิเศษจำนวนมากและไดเร็กทอรีย่อยที่ซับซ้อนมักเชื่อมโยงกับแหล่งที่มาที่น่าเชื่อถือน้อยกว่า Sibel Adali ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์ที่ Rensselaer กล่าวว่า "เนื่องจากเป็นการง่ายกว่ามากที่จะได้รับความจริงพื้นฐานจากแหล่งข้อมูล [มากกว่าบทความ] วิธีนี้จึงสามารถคาดการณ์ได้โดยตรงและแม่นยำเกี่ยวกับประเภทของเนื้อหาที่เผยแพร่โดยแหล่งข้อมูลเหล่านี้" สถาบันสารพัดช่างที่ไม่ได้เข้าร่วมโครงการ Nakov เตือนอย่างรวดเร็วว่าระบบยังอยู่ในระหว่างดำเนินการ และแม้ว่าจะมีการปรับปรุงความแม่นยำแล้ว ระบบก็ยังทำงานได้ดีที่สุดเมื่อใช้ร่วมกับเครื่องมือตรวจสอบข้อเท็จจริงแบบดั้งเดิม Nakov นักวิทยาศาสตร์อาวุโสของ QCRI กล่าวว่า "หากร้านค้ารายงานแตกต่างกันในหัวข้อใดหัวข้อหนึ่ง เว็บไซต์อย่าง Politifact สามารถดูคะแนน 'ข่าวปลอม' ของเราสำหรับช่องทางเหล่านั้นได้ทันที Baly และ Nakov ร่วมเขียนรายงานฉบับใหม่ร่วมกับ James Glass นักวิทยาศาสตร์การวิจัยอาวุโสของ MIT ร่วมกับนักศึกษาระดับปริญญาโท Dimitar Alexandrov และ Georgi Karadzhov จาก Sofia University ทีมงานจะนำเสนอผลงานในปลายเดือนนี้ในการประชุม 2018 Empirical Methods in Natural Language Processing (EMNLP) ที่กรุงบรัสเซลส์ ประเทศเบลเยียม นักวิจัยยังสร้างชุดข้อมูลโอเพ่นซอร์สชุดใหม่ของแหล่งข่าวมากกว่า 1,000 แหล่งข่าว พร้อมระบุคะแนนข้อเท็จจริงและอคติ ซึ่งเป็นฐานข้อมูลประเภทนี้ที่ใหญ่ที่สุดในโลก ในขั้นตอนต่อไป ทีมงานจะสำรวจว่าระบบที่ฝึกภาษาอังกฤษสามารถปรับให้เข้ากับภาษาอื่นได้หรือไม่ รวมทั้งก้าวข้ามอคติซ้าย/ขวาแบบเดิมๆ เพื่อสำรวจอคติเฉพาะภูมิภาค (เช่น การแบ่งโลกมุสลิมระหว่างศาสนากับฆราวาส ). Andreas Vlachos อาจารย์อาวุโสจากมหาวิทยาลัย University of เคมบริดจ์ที่ไม่ได้มีส่วนร่วมในโครงการ Nakov กล่าวว่า QCRI ยังมีแผนที่จะเปิดตัวแอปที่ช่วยให้ผู้ใช้ก้าวออกจากฟองสบู่ทางการเมือง ตอบสนองต่อรายการข่าวที่เฉพาะเจาะจงโดยเสนอชุดบทความที่ครอบคลุมสเปกตรัมทางการเมืองแก่ผู้ใช้ "มันน่าสนใจที่จะคิดถึงวิธีการใหม่ๆ ในการนำเสนอข่าวให้กับผู้คน" Nakov กล่าว "เครื่องมือเช่นนี้สามารถช่วยให้ผู้คนมีความคิดมากขึ้นเกี่ยวกับปัญหาและสำรวจมุมมองอื่น ๆ ที่พวกเขาอาจไม่เคยพิจารณามาก่อน"

ชื่อผู้ตอบ:

Visitors: 72,701