การศึกษาเตือนว่า AI อาจเร่งการขัดแย้งในโซเชียลมีเดียเป็นอย่างมาก

การศึกษาเตือนว่า AI อาจเร่งการขัดแย้งในโซเชียลมีเดียเป็นอย่างมาก

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย Kiara Fabbri นักข่าวมัลติมีเดีย

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

ปัญญาประดิษฐ์อาจทำให้การแบ่งแยกในสื่อสังคมเพิ่มขึ้นอย่างรวดเร็ว แนะนำโดยนักวิจัยและนักศึกษาจากคอนคอร์เดีย ซึ่งทำให้เกิดความกังวลเกี่ยวกับเสรีภาพในการพูดและข้อมูลที่ผิดพลาด

มีเวลาจำกัด? นี่คือข้อเท็จจริงที่สำคัญ:

  • อัลกอริทึม AI สามารถกระจายการแบ่งแยกโดยใช้เพียงจำนวนผู้ติดตามและโพสต์ล่าสุดเท่านั้น
  • บอทที่เรียนรู้ด้วยการเสริมสร้างสามารถปรับตัวเร็วเพื่อถูกใช้ในการถูกใช้ในการทำลายช่องโหว่ของโซเชียลมีเดีย
  • ผู้เชี่ยวชาญเตือนว่าแพลตฟอร์มต้องเสี่ยงต่อการเซ็นเซอร์หรือการควบคุมที่ไม่ได้รับการตรวจสอบ

แม้ว่าการขับเคลื่อนทางการเมืองในโซเชียลมีเดียไม่ใช่เรื่องใหม่ แต่นักวิจัยและนักกิจกรรมนักศึกษาที่มหาวิทยาลัย Concordia ได้เตือนว่า ปัญหานี้อาจจะร้ายแรงขึ้นอย่างมาก เมื่อมีการใช้งานปัญญาประดิษฐ์

“แทนที่จะได้ดูภาพวิดีโอของสิ่งที่กำลังเกิดขึ้นหรือเนื้อหาจากนักข่าวที่รายงานเรื่องนี้ เราเห็นศิลปะ AI ที่ถูกโฆษณาให้ดูเหมือนเรื่องจริงอย่างมาก เกี่ยวกับสิ่งที่เราควรให้ความสนใจทางการเมือง […] มันทำให้คนรู้สึกห่างเหินและลดความรับผิดชอบ” นางแดนนา บัลแลนท์ยน์ ผู้ประสานงานภายนอกและการเคลื่อนไหวสำหรับสหภาพนักศึกษาคอนคอร์เดีย ได้กล่าว ตามที่รายงานโดย The Link.

ความกังวลของเธอสะท้อนต่อการวิจัยใหม่จากคอนคอร์เดีย โดยศาสตราจารย์ราสท์โก R. เซลมิคและนักศึกษาปริญญาเอกโมฮาเมด N. ซารีร์ ได้แสดงวิธีที่บอทการเรียนรู้บังคับสามารถกระตุ้นการแบ่งแยกออนไลน์ “เป้าหมายของเราคือการทำความเข้าใจว่าปัญหาที่ประจำตัวที่แท้จริงของปัญหาที่ประจำตัวสามารถมีผลกระทบต่อการแบ่งแยกและเครือข่ายสื่อสังคมและจำลอง […] เพื่อวัดว่าการแบ่งแยกนี้และความไม่ตกลงสามารถเกิดขึ้นได้อย่างไร” ซารีร์ กล่าว ตามที่รายงานโดย The Link.

ผลการค้นคว้าแนะนำว่า อัลกอริทึมไม่จำเป็นต้องใช้ข้อมูลส่วนบุคคลเพื่อสร้างความแตกแยก โดยสัญญาณพื้นฐานเช่นจำนวนผู้ติดตามและโพสต์ล่าสุดก็เพียงพอแล้ว “นี่คือสิ่งที่น่าเป็นห่วง เพราะถึงแม้ว่า[ไม่ใช่]ระบบหุ่นยนต์ที่ง่ายๆ ก็ยังคืออัลกอริทึมที่คุณสามารถสร้างบนคอมพิวเตอร์ของคุณ… และเมื่อคุณมีพลังความคิดที่มากพอ คุณสามารถสร้างผลกระทบที่มากขึ้นต่อเครือข่ายต่างๆ” นักวิจัย Zareer ได้อธิบายให้ The Link ทราบ

นี่เป็นภาพแทนที่กว้างขวางของการศึกษาที่แสดงว่าการเรียนรู้ด้วยการเสริมสร้างสามารถถูกใช้เป็นอาวุธเพื่อผลักดันชุมชนให้แตกแยกกัน การศึกษาโดย Concordia ได้ใช้ Double-Deep Q-learning และได้แสดงให้เห็นว่าเอเจนต์ AI ตรงกันข้ามสามารถ “ปรับตัวอย่างยืดหยุ่นต่อการเปลี่ยนแปลงภายในเครือข่าย ทำให้สามารถใช้ประโยชน์จากช่องโหว่ทางโครงสร้างอย่างมีประสิทธิภาพและขยายความแตกแยกในหมู่ผู้ใช้” ตามที่งานวิจัยได้ระบุมา

ในทางปฏิบัติ, Double-Deep Q-learning คือเทคนิค AI ที่หุ่นยนต์สามารถเรียนรู้การดำเนินการที่เหมาะสมที่สุดผ่านการทดลองและผิดพลาด มันใช้เครือข่ายประสาทเทียมชั้นลึกเพื่อจัดการกับปัญหาที่ซับซ้อนและการประเมินค่าสองแบบเพื่อหลีกเลี่ยงการประเมินผลตอบแทนที่สูงเกินไป ในสื่อสังคมออนไลน์ มันสามารถกระจายเนื้อหาอย่างยุทธศาสตร์เพื่อเพิ่มการแบ่งแยกด้วยข้อมูลที่น้อยที่สุด

Zareer เตือนว่าผู้นโยบายต้องเผชิญกับความสมดุลที่ยาก “มีเส้นที่บางมากระหว่างการตรวจสอบและการเซ็นเซอร์และการพยายามควบคุมเครือข่าย,” เขากล่าวกับ The Link การดูแลที่น้อยเกินไปทำให้บอทสามารถจัดการการสนทนา ในขณะที่การดูแลที่มากเกินไปอาจเสี่ยงที่จะยับยั้งการพูดเสรี

ในเวลาเดียวกันนั้น นักศึกษาอย่างบัลแลนท์ยนก็กลัวว่า AI จะลบล้างประสบการณ์ที่เคยผ่านมา “AI ลบทิ้งสิ่งนั้นไปอย่างสิ้นเชิง” เธอบอกกับ The Link.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ