มุกใหม่ได้อีก! คนร้ายใช้ “AI” ปลอมเสียงให้หลอกโอนเงิน

Advertisement ล่าสุดมีเครื่องมือ AI ที่ถูกพัฒนาช่วยอำนวยความสะดวกแก่ผู้ใช้ได้หลากหลาย แต่ด้วยความสามารถที่มากล้น ก็ย่อมมีความกังวลว่าจะถูกนำไปใช้งานในทางผิดได้ แน่นอนว่าล่าสุดพบนักหลอกลวงออนไลน์ นำ AI มาปลอมแปลงเสียง เพื่อหลอกเหยื่อให้โอนเงินช่วยเหลือ Advertisement โดยเกิดขึ้นกับสามีภรรยาชาวแคนาดาวัย 70 ปีคู่หนึ่ง รับโทรศัพท์ที่คิดว่าเป็นหลายชายโทรมา โดยในสายเผยว่าตนเองกำลังติดคุก และต้องการเงินประกันตัวด่วน ด้วยความร้อนรน สามีภรรยาคู่นี้จึงถอนเงินถึง 3,000 ดอลลาร์ฯ หรือประมาณ 1 แสนบาทมารอไว้ แต่เคราะห์ดีที่ยังไม่ทันได้โอน หลังกำลังจะถอนเงินจำนวนเดียวกันนี้ออกจากอีกธนาคารหนึ่ง ก็ได้ผู้จัดการของธนาคารเตือนก่อนว่า พวกเขากำลังถูกหลอกลวง แถมยังมีลูกค้ารายอื่น ๆ ได้รับสายที่คล้ายกันด้วย ทว่าก็ยังมีผู้เคราะห์ร้าย เมื่อครอบครัวหนึ่งได้รับโทรศัพท์จากทนายความแจ้ง ลูกชายขับรถชนนักการทูตของสหรัฐฯ จนถึงแก่ความตาย เป็นเหตุให้ตัวเองกำลังติดคุก และต้องการค่าดำเนินการทางกฎหมายเป็นการด่วน Advertisement ร้ายไปกว่านั้น ตัวคนร้ายยังเลียนแบบเสียงลูกชาย โดยทำทีว่าให้ลูกชายมาพูดคุยด้วย แน่นอนว่าทางพ่อแม่ก็ได้ส่งเงินเป็นจำนวนมากถึง 15,449 ดอลลาร์ฯ หรือประมาณ 5 แสนบาท โดยไม่สามารถนำเงินกลับมาได้ และจับคนร้ายได้อีก อย่างไรก็ดี เรื่องที่เกิดขึ้นในต่างประเทศนั้น เป็นเสียงสะท้อนให้คนไทยอาจจะต้องระมัดระวังยิ่งกว่าเดิม เพราะปัจจุบันสถานการณ์แก๊งคอลเซ็นเตอร์ออกอาละวาดหลอกลวงคนในประเทศไทย ก็มีคดีประเภทโทรมาตีเนียนว่าเป็นเพื่อนแล้วขอยืมเงินที่จับไม่ได้อีกเพียบ […]

error: