Sunday, April 28, 2024
Generative AINEWS

Whoscall เตือนระวังมิจฉาชีพใช้เทคโนโลยี AI ปลอมเสียง หลอกลวงเหยื่อ

Whoscall

Gogolook ผู้พัฒนา Whoscall จับมือ GASA ก้าวสู่ผู้นำด้านการต่อต้านการหลอกลวงในเอเชีย เผยการหลอกลวงทั่วโลกเพิ่มขึ้น 10.2% จับตาเทคโนโลยี Generative AI ถูกพัฒนาหลอกเหยื่อในหลายพื้นที่

Gogolook ผู้พัฒนาแอปพลิเคชัน Whoscall และผู้ให้บริการทางด้านเทคโนโลยี เพื่อความเชื่อมั่น (TrustTech) เตือนภัยมิจฉาชีพในประเทศไทยเริ่มใช้วิธีหลอกลวงใหม่ด้วยเทคโนโลยี AI ปลอมเสียง คำเตือนดังกล่าวเกิดขึ้น

ในขณะที่ Gogolook เข้าร่วมเป็นพันธมิตรองค์กรต่อต้านกลโกงระดับโลก GASA (The Global Anti-Scam Alliance) เพื่อต่อสู้กับภัยการหลอกลวงระหว่างประเทศ เนื่องจากกลโกงใหม่ๆ ทวีความรุนแรงขึ้นจากการใช้เทคโนโลยี Generative AI ในปัจจุบัน

โดย Gogolook หวังว่าความร่วมมือกับ GASA จะช่วยส่งเสริมให้มีการแลกเปลี่ยนข้อมูลการหลอกลวง ในระดับภูมิภาคและวงการต่างๆ อีกทั้งยกระดับการป้องกันการฉ้อโกงระดับโลกและเชื่อมเครือข่ายชุมชนการป้องกัน การฉ้อโกงในภูมิภาคเอเชียและตะวันตกเข้าไว้ด้วยกัน

การหลอกลวงทั่วโลกทวีความรุนแรงมากขึ้นเรื่อยๆ จากรายงานการหลอกลวงทั่วโลกปี 2566 ของ GASA พบว่าการฉ้อโกง ทั่วโลกเพิ่มขึ้น 10.2% เมื่อเทียบกับปีที่แล้ว (2566) เกิดความสูญเสียทางการเงินสูงถึง 55,000 ล้านดอลลาร์ ในขณะที่ Generative AI (เช่น ChatGPT และ DeepFake เป็นต้น) ถูกพัฒนาอย่างรวดเร็วและถูกนำไปใช้หลอกลวงในหลายพื้นที่

ในอนาคตการหลอกลวงจะพัฒนาต่อไปอย่างรวดเร็ว โดยมีค่าใช้จ่ายในการดำเนินการลดลง เมื่อรวมกับการรั่วไหลของข้อมูล ส่วนบุคคลบ่อยครั้ง ภาครัฐและเอกชนจำเป็นต้องลงทุนและร่วมกันวางกลยุทธ์เพื่อป้องกันภัยจากการฉ้อโกงที่เกิดขึ้น

จำนวนเคสการหลอกลวงโดยใช้ AI ปลอมเสียง กำลังเพิ่มขึ้นทั่วโลก เนื่องจากมิจฉาชีพเริ่มใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อเลียนแบบเสียงคนคุ้นเคย เพื่อนหรือครอบครัว เพื่อทำให้เหยื่อเชื่อและหลงกลในที่สุด

มิจฉาชีพใช้เทคโนโลยีโคลนนิ่งเพื่อวิเคราะห์เสียงที่ถูกบันทึกไว้หรือเสียงที่ได้จากออนไลน์เพื่อสร้างเสียงสังเคราะห์ที่ใกล้เคียง กับเสียงบุคคลเป้าหมาย เมื่อทำสำเร็จก็จะโทรหาเหยื่อเพื่อปลอมเป็นสมาชิกในครอบครัวหรือคนใกล้ตัว บ่อยครั้งที่ผู้โทรอ้างว่า อยู่ในสถานการณ์ฉุกเฉิน เช่น เกิดอุบัติเหตุ ต้องการให้โอนเงินช่วยเหลือโดยด่วน หรือมีปัญหาทางกฎหมาย เพื่อบีบคั้นและเร่ง ให้เหยื่อทำบางอย่างโดยไม่ทันตรวจสอบว่าผู้โทรเข้าเป็นคนที่คิดไว้จริงหรือไม่

ในประเทศไทยเทคโนโลยีปลอมเสียงเพื่อหลอกหลวงเริ่มคืบคลานเข้ามา หลายฝ่ายเริ่มส่งสัญญาณเตือน เมื่อเร็วๆนี้ แผนกดิจิทัลเพื่อเศรษฐกิจและสังคม (DES) ได้เตือนว่าขณะนี้มิจฉาชีพเริ่มใช้ AI เพื่อปลอมเสียง สร้างแชทปลอม และ คลิปปลอม ด้านสำนักงานตำรวจแห่งชาติ แถลงข่าวเตือนมิจฉาชีพใช้วิธี“ปลอมเสียง”เป็นบุคคลอื่นเพื่อยืมเงิน ซึ่งเป็นการพัฒนาวิธีการหลอกลวงของคนร้าย

ฐิตินันท์ สุทธินราพรรณ ผู้อำนวยการฝ่ายการตลาดประจำภูมิภาคเอเชียตะวันออกเฉียงใต้ บริษัท Gogolook ได้เน้นความสำคัญของการป้องกัน การฉ้อโกงและความมุ่งมั่นในการให้ความปลอดภัยแก่ผู้ใช้บริการ Whoscall ในประเทศไทย

กล่าวเสริมว่า “เมื่อเทคโนโลยีการฉ้อโกงพัฒนา อย่างต่อเนื่อง ทาง Gogolook มุ่งมั่นที่จะสร้างชุมชน ป้องกันการฉ้อโกงและสร้างความปลอดภัยให้แก่ผู้ใช้บริการ Whoscall_พร้อมกับ การร่วมมือกับ GASA เพื่อเสริมสร้าง การแลกเปลี่ยนข้อมูลระหว่างภูมิภาคและการร่วมมือทางเทคโนโลยี และสร้างสรรค์โซลูชันส์ป้องกันการฉ้อโกงระดับโลก เพื่อปกป้องผู้ใช้จากอันตรายที่กำลังเพิ่มขึ้นจากการหลอกลวงด้วยเทคโนโลยีเสียงหรือการหลอกลวง โดยใช้ Generative AI”

Gogolook กระตุ้นให้คนไทยป้องกันตัวเองจากการปลอมเสียงด้วย AI โดยระวังสายโทรเข้าที่ไม่พึงประสงค์ ดังนี้

  • แม้ว่าจะรู้สึกคุ้นเคยกับเสียงที่โทรเข้ามาก็ตาม สิ่งสำคัญคืออย่ารีบทำตามสิ่งที่ปลายสายเร่งให้ทำ ควรเช็ค ตัวตนที่แท้จริงของผู้โทร ให้แน่ใจก่อนที่จะให้ข้อมูลส่วนตัวหรือดำเนินการใดๆ
  • การที่จะช่วยยืนยันตัวตนของผู้โทรคือ ติดต่อกลับโดยใช้หมายเลขโทรศัพท์ที่เราเคยบันทึกไว้ โทรหาคนใกล้ ตัวเขาเพื่อเช็ค
  • ไม่ควรเปิดเผยข้อมูลที่ละเอียดอ่อนหรือข้อมูลทางการเงินจนกว่าจะระบุตัวตนของผู้โทรที่แท้จริง นอกจากนี้ การดาวน์โหลดแอป_Whoscall เป็นอีกหนึ่งเครื่องมือเพื่อช่วยระบุหมายเลขโทรเข้าได้
  • ควรระมัดระวังหากมีการขอให้โอนเงินหรือขอความช่วยเหลือเร่งด่วน โดยเฉพาะหากเป็นวิธีชำระเงินที่ผิดปกติ ไม่โอนเงินไปหาบุคคลที่กล่าวถึงโดยตรง หรือ ผู้โทรพยายามกดดันให้ดำเนินการทันที