
Image by Solen Feyissa, from Unsplash
ภาวะฝันร้ายจาก AI ตอนนี้กลายเป็นภัยคุกคามทางไซเบอร์แล้ว
การศึกษาแสดงให้เห็นว่า AI chatbots แนะนำหน้าล็อกอินปลอมให้กับผู้ใช้หลายล้านคน ซึ่งทำให้พวกเขาตกอยู่ในความเสี่ยงของการถูกโจรกรรมและการฉ้อโกง ภายใต้การปกปิดว่าเป็นการตอบสนองที่เป็นประโยชน์.
รีบหรือเปล่า? นี่คือเรื่องย่อที่คุณควรรู้:
- 34% ของ URL ที่ AI แนะนำให้เข้าสู่ระบบเป็นปลอม, ไม่มีใครเรียกร้องหรือไม่เกี่ยวข้อง
- Perplexity AI แนะนำเว็บไซต์ฟิชชิ่งแทนที่จะเป็นเว็บไซต์เข้าสู่ระบบอย่างเป็นทางการของ Wells Fargo
- ผู้กระทำความผิดกำลังปรับปรุงหน้าเว็บฟิชชิ่งเพื่อจะได้อยู่ในอันดับของผลลัพธ์ที่สร้างขึ้นโดย AI
ในการศึกษาของพวกเขา, บริษัทด้านความมั่นคงปลอดภัย Netcraft ได้ทดสอบ Large Language Model (LLM) ที่ได้รับความนิยมโดยการถามว่าควรจะเข้าสู่ระบบที่ไหนสำหรับ 50 แบรนด์ที่รู้จักกันเป็นอย่างดี จากลิงค์เว็บไซต์ที่ได้แนะนำทั้งหมด 131 ลิงค์ มีอยู่ 34% ที่ไม่ถูกต้อง โดยมีโดเมนที่ไม่ใช้งานหรือยังไม่ได้ลงทะเบียนทั้งหมด 29% และธุรกิจที่ไม่เกี่ยวข้องมีอยู่ 5%.
ปัญหานี้ไม่ใช่เรื่องทฤษฎี ในตัวอย่างจริง ๆ ที่เรามีหนึ่งขึ้นมา คือ เครื่องมือค้นหาที่ขับเคลื่อนด้วย AI ชื่อ Perplexity ได้แสดงเว็บไซต์ฟิชชิ่งให้ผู้ใช้ที่ค้นหาหน้าล็อกอิน Wells Fargo โดยมีหน้าเว็บของ Google Sites ปลอมลอกแบบธนาคารปรากฏขึ้นอยู่ที่ด้านบนของผลการค้นหา ในขณะที่ลิงค์ที่แท้จริงถูกซ่อนอยู่ด้านล่าง
Netcraft ได้อธิบายว่า “นี้ไม่ใช่การสร้างข้อความที่จุดขอบ เราใช้ภาษาที่เรียบง่าย ธรรมชาติ โดยทำการจำลองดังนักเพื่อจะเหมือนผู้ใช้ทั่วไปที่อาจจะถาม โมเดลไม่ได้ถูกหลอกลวง – แต่ก็ไม่ได้ถูกต้อง ส่วนนี้เป็นสิ่งที่สำคัญ เพราะผู้ใช้ทุกวันนี้ใช้เครื่องมือค้นหาและอินเตอร์เฟซการสนทนาที่ขับเคลื่อนด้วย AI เพื่อตอบคำถามประเภทนี้มากขึ้น”
เมื่อ AI กลายเป็นหน้าตาพื้นฐานบนแพลตฟอร์ม เช่น Google และ Bing ความเสี่ยงจึงเพิ่มขึ้น ไม่เหมือนกับเครื่องมือค้นหาแบบดั้งเดิม Chatbots นำเสนอข้อมูลอย่างชัดเจนและมั่นใจ ซึ่งทำให้ผู้ใช้เชื่อถือคำตอบของพวกเขา แม้ข้อมูลจะผิดก็ตาม
ความภัยไม่หยุดที่การฟิชชิ่งเท่านั้น ผู้ก่ออาชญากรรมไซเบอร์แห่งปัจจุบันปรับปรุงเนื้อหาที่มีความร้ายกาจของพวกเขาให้เหมาะสมกับระบบ AI ซึ่งส่งผลให้มีหน้าที่สร้างขึ้นมาเพื่อความหลอกลวงเป็นหมื่นๆ หน้า API ปลอม และโค้ดที่ถูกปนเปื้อนที่สลิปผ่านฟิลเตอร์และสุดท้ายปรากฏในการตอบสนองที่สร้างโดย AI
ในแคมเปญหนึ่ง ผู้โจมตีสร้าง API บล็อกเชนปลอมขึ้น แล้วส่งเสริมผ่านทางคลัง GitHub และบทความบล็อก เพื่อหลอกลวงนักพัฒนาส่งคริปโตเคอร์เรนซีไปยังกระเป๋าเงินที่ทุจริต
Netcraft เตือนว่าการลงทะเบียนโดเมนปลอมล่วงหน้าไม่เพียงพอ แทนที่จะทำอย่างนั้น พวกเขาแนะนำระบบตรวจจับที่ฉลาดขึ้น และการป้องกันการอบรมที่ดีขึ้นเพื่อป้องกัน AI จากการสร้าง URL ที่เป็นอันตรายในตอนแรก