นักวิจัยรุกราน Google Gemini AI เพื่อควบคุมอุปกรณ์บ้านอัจฉริยะ

Image by Jakub Żerdzicki, from Unsplash

นักวิจัยรุกราน Google Gemini AI เพื่อควบคุมอุปกรณ์บ้านอัจฉริยะ

ระยะเวลาในการอ่าน: 1 นาที

  • Kiara Fabbri

    ถูกเขียนขึ้นโดย Kiara Fabbri นักข่าวมัลติมีเดีย

  • ทีมแปลภาษา

    แปลโดย ทีมแปลภาษา ทีมแปลภาษาและบริการแปลภาษา

นักวิจัยสามารถหลอก AI ระบบ Gemini ของ Google เพื่อทำให้เกิดการละเมิดความปลอดภัยผ่านการเชิญปฏิทินปลอม และควบคุมอุปกรณ์ในบ้านจากระยะไกล

รีบไปไหน? นี่คือข้อเท็จจริงที่คุณต้องรู้:

  • การโจมตีทำให้ไฟดับ ม่านเปิด และเริ่มทำงานของเครื่องทำน้ำร้อนอัจฉริยะ
  • นี่คือการถูกแฮ็กแบบ AI ครั้งแรกที่ทราบผลกระทบในโลกความจริง
  • การแฮ็กมีการโจมตีแบบ indirect prompt injection ทั้งหมด 14 ครั้งผ่านทางเว็บและมือถือ

ในการสาธิตครั้งแรกที่ไม่เคยมีมาก่อน นักวิจัยสามารถทำให้ระบบ AI ของ Google ที่ชื่อ Gemini ล่มจากการส่งคำเชิญปฏิทินที่ถูกปล่อยพิษสำเร็จ ซึ่งทำให้พวกเขาสามารถเปิดใช้งานอุปกรณ์ในโลกจริง รวมถึงไฟฟ้า ม่าน และเครื่องทำน้ำร้อนได้

WIRED ที่รายงานข้อมูลวิจัยครั้งแรกนี้ อธิบายว่าไฟฉายสมาร์ทที่ที่พักในเทลอาวีฟถูกปิดอัตโนมัติ ในขณะที่ม่านถูกเปิดอัตโนมัติและเครื่องทำน้ำอุ่นก็เริ่มทำงาน แม้ว่าไม่มีคำสั่งจากผู้อยู่อาศัย

ระบบ AI Gemini ได้เริ่มการทำงานหลังจากได้รับคำขอสรุปเหตุการณ์ในปฏิทิน หน้าที่ซ่อนเร้นของการแทรกแซงทางอ้อมทำงานภายในการเชิญ เพื่อแย่งการทำงานของระบบ AI.

แต่ละการดำเนินการของอุปกรณ์ถูกสร้างมาโดยนักวิจัยด้านความปลอดภัย Ben Nassi จากมหาวิทยาลัย Tel Aviv, Stav Cohen จาก Technion, และ Or Yair จาก SafeBreach. “LLMs กำลังจะถูกผสมผสานเข้ากับหุ่นยนต์ที่มีรูปร่างคน, รถที่มีการควบคุมครึ่งและเต็มอัตโนมัติ, และเราต้องเข้าใจจริงๆว่า ควรทำอย่างไรในการรักษาความปลอดภัยของ LLMs ก่อนที่เราจะผสมผสานมันกับเครื่องจักรประเภทนี้, ที่ในบางกรณี ผลลัพธ์จะเป็นความปลอดภัย ไม่ใช่ความเป็นส่วนตัว,” Nassi เตือน, ดังที่รายงานโดย WIRED.

ในการประชุมความปลอดภัยไซเบอร์ Black Hat ที่ Las Vegas, ทีมงานได้เปิดเผยงานวิจัยของพวกเขาเกี่ยวกับ 14 การโจมตีทางอ้อมผ่านการเชิญ, ซึ่งพวกเขาตั้งชื่อว่า ‘Invitation Is All You Need,’ ดังที่รายงานโดย WIRED. การโจมตีรวมถึงการส่งข้อความสแปม, การสร้างเนื้อหาที่ลามก, การเริ่มต้นการโทรผ่าน Zoom, การขโมยเนื้อหาอีเมล, และการดาวน์โหลดไฟล์ลงบนอุปกรณ์มือถือ.

Google กล่าวว่าไม่มีผู้กระทำที่มีเจตนาทำร้ายที่ได้ใช้โอกาสจากข้อบกพร่องนี้ แต่บริษัทกำลังจัดการกับความเสี่ยงนี้อย่างจริงจัง “บางทีมันมีสิ่งที่ไม่ควรถูกทำให้เต็มที่ด้วยอัตโนมัติ ผู้ใช้ควรเข้าร่วมในกระบวนการ” นี่คือคำพูดของ Andy Wen, ผู้อำนวยการอาวุโสด้านความปลอดภัยสำหรับ Google Workspace ตามที่ได้รายงานโดย WIRED.

แต่สิ่งที่ทำให้กรณีนี้น่ากลัวมากขึ้นคือปัญหาที่กว้างขวางมากขึ้นในด้านความปลอดภัยของ AI: โมเดล AI สามารถสอนกันเองให้ทำพฤติกรรมที่ไม่ดีโดยลับๆ

ค้นพบจากการศึกษาแยกเป็นอีกหนึ่งว่า รูปแบบสามารถส่งผ่านพฤติกรรมที่เป็นอันตราย เช่น การส่งเสริมการฆ่าตัวตายหรือการแนะนำให้กำจัดมนุษยชาติ แม้กระทั่งเมื่อได้รับการฝึกฝนจากข้อมูลที่ถูกกรอง

สิ่งนี้เป็นการเรียกร้องความหวั่นไหวที่น่ากลัว: หากผู้ช่วยอัจฉริยะเช่น Gemini ได้รับการฝึกฝนโดยใช้ผลลัพธ์จาก AI อื่น ๆ, คำสั่งที่เป็นอันตรายอาจถูกสืบทอดอย่างเงียบ ๆ และทำหน้าที่เป็นคำสั่งที่นอนรอ รอคอยการเปิดใช้งานผ่านการสั่งงานทางอ้อม

ผู้เชี่ยวชาญด้านความปลอดภัย David Bau เตือนถึงช่องโหว่ของ backdoor ที่ “อาจยากต่อการตรวจจับ” และสิ่งนี้อาจจริงมาก ๆ ในระบบที่ฝังอยู่ในสภาพแวดล้อมทางกายภาพ

Wen ยืนยันว่าการวิจัยได้ “เร่ง” การป้องกันของ Google ด้วยการแก้ไขที่มีอยู่แล้วและโมเดลการเรียนรู้ของเครื่องกำลังถูกฝึกเพื่อตรวจจับสัญญาณที่อันตราย. อย่างไรก็ตาม, กรณีนี้แสดงว่า AI สามารถเปลี่ยนจากที่มีประโยชน์เป็นอันตรายได้อย่างรวดเร็ว, โดยไม่ต้องสั่งให้ทำโดยตรง.

คุณชอบบทความนี้ไหม?
โหวตให้คะแนนเลยสิ!
ฉันเกลียดมัน ฉันไม่ค่อยชอบเท่าไหร่ พอใช้ได้ ค่อนข้างดี รักเลย!

เราดีใจที่คุณชื่นชอบผลงานของเรา!

ในฐานะผู้อ่านผู้ทรงคุณค่า คุณช่วยให้คะแนนเราบน Trustpilot หน่อยได้ไหม? การให้คะแนนนั้นรวดเร็วและสำคัญกับเรามาก ขอบคุณสำหรับความร่วมมือ!

ให้คะแนนเราบน Trustpilot
0 ได้รับการโหวตให้คะแนนโดย 0 ผู้ใช้
ชื่อเรื่อง
ความคิดเห็น
ขอบคุณสำหรับคำแนะนำของคุณ