การศึกษาเตือนว่า AI อาจเร่งการขัดแย้งในโซเชียลมีเดียเป็นอย่างมาก
ปัญญาประดิษฐ์อาจทำให้การแบ่งแยกในสื่อสังคมเพิ่มขึ้นอย่างรวดเร็ว แนะนำโดยนักวิจัยและนักศึกษาจากคอนคอร์เดีย ซึ่งทำให้เกิดความกังวลเกี่ยวกับเสรีภาพในการพูดและข้อมูลที่ผิดพลาด
มีเวลาจำกัด? นี่คือข้อเท็จจริงที่สำคัญ:
- อัลกอริทึม AI สามารถกระจายการแบ่งแยกโดยใช้เพียงจำนวนผู้ติดตามและโพสต์ล่าสุดเท่านั้น
- บอทที่เรียนรู้ด้วยการเสริมสร้างสามารถปรับตัวเร็วเพื่อถูกใช้ในการถูกใช้ในการทำลายช่องโหว่ของโซเชียลมีเดีย
- ผู้เชี่ยวชาญเตือนว่าแพลตฟอร์มต้องเสี่ยงต่อการเซ็นเซอร์หรือการควบคุมที่ไม่ได้รับการตรวจสอบ
แม้ว่าการขับเคลื่อนทางการเมืองในโซเชียลมีเดียไม่ใช่เรื่องใหม่ แต่นักวิจัยและนักกิจกรรมนักศึกษาที่มหาวิทยาลัย Concordia ได้เตือนว่า ปัญหานี้อาจจะร้ายแรงขึ้นอย่างมาก เมื่อมีการใช้งานปัญญาประดิษฐ์
“แทนที่จะได้ดูภาพวิดีโอของสิ่งที่กำลังเกิดขึ้นหรือเนื้อหาจากนักข่าวที่รายงานเรื่องนี้ เราเห็นศิลปะ AI ที่ถูกโฆษณาให้ดูเหมือนเรื่องจริงอย่างมาก เกี่ยวกับสิ่งที่เราควรให้ความสนใจทางการเมือง […] มันทำให้คนรู้สึกห่างเหินและลดความรับผิดชอบ” นางแดนนา บัลแลนท์ยน์ ผู้ประสานงานภายนอกและการเคลื่อนไหวสำหรับสหภาพนักศึกษาคอนคอร์เดีย ได้กล่าว ตามที่รายงานโดย The Link.
ความกังวลของเธอสะท้อนต่อการวิจัยใหม่จากคอนคอร์เดีย โดยศาสตราจารย์ราสท์โก R. เซลมิคและนักศึกษาปริญญาเอกโมฮาเมด N. ซารีร์ ได้แสดงวิธีที่บอทการเรียนรู้บังคับสามารถกระตุ้นการแบ่งแยกออนไลน์ “เป้าหมายของเราคือการทำความเข้าใจว่าปัญหาที่ประจำตัวที่แท้จริงของปัญหาที่ประจำตัวสามารถมีผลกระทบต่อการแบ่งแยกและเครือข่ายสื่อสังคมและจำลอง […] เพื่อวัดว่าการแบ่งแยกนี้และความไม่ตกลงสามารถเกิดขึ้นได้อย่างไร” ซารีร์ กล่าว ตามที่รายงานโดย The Link.
ผลการค้นคว้าแนะนำว่า อัลกอริทึมไม่จำเป็นต้องใช้ข้อมูลส่วนบุคคลเพื่อสร้างความแตกแยก โดยสัญญาณพื้นฐานเช่นจำนวนผู้ติดตามและโพสต์ล่าสุดก็เพียงพอแล้ว “นี่คือสิ่งที่น่าเป็นห่วง เพราะถึงแม้ว่า[ไม่ใช่]ระบบหุ่นยนต์ที่ง่ายๆ ก็ยังคืออัลกอริทึมที่คุณสามารถสร้างบนคอมพิวเตอร์ของคุณ… และเมื่อคุณมีพลังความคิดที่มากพอ คุณสามารถสร้างผลกระทบที่มากขึ้นต่อเครือข่ายต่างๆ” นักวิจัย Zareer ได้อธิบายให้ The Link ทราบ
นี่เป็นภาพแทนที่กว้างขวางของการศึกษาที่แสดงว่าการเรียนรู้ด้วยการเสริมสร้างสามารถถูกใช้เป็นอาวุธเพื่อผลักดันชุมชนให้แตกแยกกัน การศึกษาโดย Concordia ได้ใช้ Double-Deep Q-learning และได้แสดงให้เห็นว่าเอเจนต์ AI ตรงกันข้ามสามารถ “ปรับตัวอย่างยืดหยุ่นต่อการเปลี่ยนแปลงภายในเครือข่าย ทำให้สามารถใช้ประโยชน์จากช่องโหว่ทางโครงสร้างอย่างมีประสิทธิภาพและขยายความแตกแยกในหมู่ผู้ใช้” ตามที่งานวิจัยได้ระบุมา
ในทางปฏิบัติ, Double-Deep Q-learning คือเทคนิค AI ที่หุ่นยนต์สามารถเรียนรู้การดำเนินการที่เหมาะสมที่สุดผ่านการทดลองและผิดพลาด มันใช้เครือข่ายประสาทเทียมชั้นลึกเพื่อจัดการกับปัญหาที่ซับซ้อนและการประเมินค่าสองแบบเพื่อหลีกเลี่ยงการประเมินผลตอบแทนที่สูงเกินไป ในสื่อสังคมออนไลน์ มันสามารถกระจายเนื้อหาอย่างยุทธศาสตร์เพื่อเพิ่มการแบ่งแยกด้วยข้อมูลที่น้อยที่สุด
Zareer เตือนว่าผู้นโยบายต้องเผชิญกับความสมดุลที่ยาก “มีเส้นที่บางมากระหว่างการตรวจสอบและการเซ็นเซอร์และการพยายามควบคุมเครือข่าย,” เขากล่าวกับ The Link การดูแลที่น้อยเกินไปทำให้บอทสามารถจัดการการสนทนา ในขณะที่การดูแลที่มากเกินไปอาจเสี่ยงที่จะยับยั้งการพูดเสรี
ในเวลาเดียวกันนั้น นักศึกษาอย่างบัลแลนท์ยนก็กลัวว่า AI จะลบล้างประสบการณ์ที่เคยผ่านมา “AI ลบทิ้งสิ่งนั้นไปอย่างสิ้นเชิง” เธอบอกกับ The Link.