มุกใหม่ได้อีก! คนร้ายใช้ “AI” ปลอมเสียงให้หลอกโอนเงิน





ล่าสุดมีเครื่องมือ AI ที่ถูกพัฒนาช่วยอำนวยความสะดวกแก่ผู้ใช้ได้หลากหลาย แต่ด้วยความสามารถที่มากล้น ก็ย่อมมีความกังวลว่าจะถูกนำไปใช้งานในทางผิดได้ แน่นอนว่าล่าสุดพบนักหลอกลวงออนไลน์ นำ AI มาปลอมแปลงเสียง เพื่อหลอกเหยื่อให้โอนเงินช่วยเหลือ

โดยเกิดขึ้นกับสามีภรรยาชาวแคนาดาวัย 70 ปีคู่หนึ่ง รับโทรศัพท์ที่คิดว่าเป็นหลายชายโทรมา โดยในสายเผยว่าตนเองกำลังติดคุก และต้องการเงินประกันตัวด่วน ด้วยความร้อนรน สามีภรรยาคู่นี้จึงถอนเงินถึง 3,000 ดอลลาร์ฯ หรือประมาณ 1 แสนบาทมารอไว้ แต่เคราะห์ดีที่ยังไม่ทันได้โอน

หลังกำลังจะถอนเงินจำนวนเดียวกันนี้ออกจากอีกธนาคารหนึ่ง ก็ได้ผู้จัดการของธนาคารเตือนก่อนว่า พวกเขากำลังถูกหลอกลวง แถมยังมีลูกค้ารายอื่น ๆ ได้รับสายที่คล้ายกันด้วย

ทว่าก็ยังมีผู้เคราะห์ร้าย เมื่อครอบครัวหนึ่งได้รับโทรศัพท์จากทนายความแจ้ง ลูกชายขับรถชนนักการทูตของสหรัฐฯ จนถึงแก่ความตาย เป็นเหตุให้ตัวเองกำลังติดคุก และต้องการค่าดำเนินการทางกฎหมายเป็นการด่วน

ร้ายไปกว่านั้น ตัวคนร้ายยังเลียนแบบเสียงลูกชาย โดยทำทีว่าให้ลูกชายมาพูดคุยด้วย แน่นอนว่าทางพ่อแม่ก็ได้ส่งเงินเป็นจำนวนมากถึง 15,449 ดอลลาร์ฯ หรือประมาณ 5 แสนบาท โดยไม่สามารถนำเงินกลับมาได้ และจับคนร้ายได้อีก

อย่างไรก็ดี เรื่องที่เกิดขึ้นในต่างประเทศนั้น เป็นเสียงสะท้อนให้คนไทยอาจจะต้องระมัดระวังยิ่งกว่าเดิม เพราะปัจจุบันสถานการณ์แก๊งคอลเซ็นเตอร์ออกอาละวาดหลอกลวงคนในประเทศไทย ก็มีคดีประเภทโทรมาตีเนียนว่าเป็นเพื่อนแล้วขอยืมเงินที่จับไม่ได้อีกเพียบ

ถึงแม้ทุกวันนี้ในประเทศไทยจะยังไม่มีคดีที่ใช้ AI ปลอมเสียง แต่เสียงที่หมือนคนคุ้น เคยที่รู้จัก อาจไม่ใช่คนที่คุณรู้จักจริงๆ แต่คุณอาจตกเป็นเหยื่อของเทคโนโลยีก็ได้

 

ข่าวจาก : ข่าวสด

เงื่อนไขการแสดงความคิดเห็น ๆ
- ไม่สามารถ copy ข้อความจากที่อื่น แล้วนำมา paste ในช่องแสดงความคิดเห็น
- ไม่สามารถใส่ชื่อเว็บไซต์ใด ๆ ก็ตาม ลงในช่องแสดงความคิดเห็น
- ระบบสามารถรับข้อความ ได้สูงสุดเพียง 2,000 ตัวอักษร ต่อหนึ่งครั้ง
- ผู้ดูแลเว็บไซต์ จะลบข้อความที่ไม่เหมาะสม และข้อความโฆษณาสินค้า หรือบริการ
error: