หน้าแรก > อาชญากรรม

Cyber Alert ! "ระวัง! AI กับมิจฉาชีพ อาจทำให้คุณหลงเชื่อ แม้จะเป็นวีดีโอคอลก็อย่าไว้ใจ!"

วันที่ 9 มิถุนายน 2568 เวลา 13:08 น.


9 มิ.ย. 2568 ตำรวจไซเบอร์เตือน AI ปลอมใบหน้า (Deepfake) คือ เทคโนโลยีที่ใช้ปัญญาประดิษฐ์ในการสร้างหรือแก้ไขใบหน้าผู้คนในภาพหรือวีดีโอให้เหมือนจริง ซึ่งมิจฉาชีพอาจนำเทคโนโลยีนี้มาหลอกลวงผู้คนโดยการสร้างวีดีโอปลอมของบุคคลที่มีชื่อเสียงหรือคนรู้จัก เพื่อขอข้อมูลส่วนตัวหรือเงินจากผู้ที่ถูกหลอก

ดังนั้นอย่าเชื่อทุกอย่างที่เห็นในวิดีโอการตัดต่อและเทคโนโลยี AI สามารถสร้างภาพหรือเสียงที่ดูเหมือนจริงได้ หากมีข้อสงสัย ให้หยุดและตรวจสอบข้อมูลเพิ่มเติม
วิธีสังเกตและป้องกันภัยจากมิจฉาชีพที่ใช้ AI และเทคโนโลยีหลอกลวง:

1. ระวังการขอข้อมูลส่วนตัว หากมีการขอข้อมูลส่วนตัวหรือข้อมูลทางการเงิน ควรระมัดระวังและไม่ให้ข้อมูลทันที

2. ตรวจสอบแหล่งที่มา ให้ตรวจสอบแหล่งที่มาหรือหมายเลขโทรศัพท์ของผู้ติดต่อก่อน

3. อย่ารีบทำธุรกรรมทางการเงิน หากมีการขอให้โอนเงินหรือทำธุรกรรมทันทีจากคนที่ไม่รู้จัก อย่าทำการโอนจนกว่าจะยืนยันข้อมูลหรือถามคำปรึกษาจากคนใกล้ชิด

4. ใช้การยืนยันตัวตนแบบสองขั้นตอน ตั้งค่าการยืนยันตัวตนสองขั้นตอน (Two-Factor Authentication) ในบัญชีออนไลน์เพื่อเพิ่มความปลอดภัย

5. เรียนรู้เกี่ยวกับเทคโนโลยี AI ทำความเข้าใจเกี่ยวกับเทคโนโลยี AI และการใช้งาน เพื่อให้สามารถแยกแยะระหว่างสิ่งที่เป็นจริงและสิ่งที่เป็นการหลอกลวงได้

การระมัดระวังและไม่เชื่อถือข้อมูลจากแหล่งที่ไม่คุ้นเคยเป็นวิธีที่ดีที่สุดในการป้องกันตัวจากมิจฉาชีพ

ข่าวยอดนิยม


เว็บไซต์นี้ใช้คุกกี้เพื่อปรับปรุงประสบการณ์การใช้งานเว็บไซต์ให้ผู้ใช้งานและจะรวบรวมข้อมูลพฤติกรรมการใช้งานระบบของผู้ใช้ การเรียกดูเว็บไซต์ของเราในหน้าต่างๆ กรุณายอมรับนโยบายความเป็นส่วนตัวของเรา

อ่านเพิ่มเติมยอมรับ