-->

شائع

.

تحذير... ChatGPT-4o يمكن استخدامها للاحتيال وسرقة الأموال

author image

 

       


أظهرت دراسة حديثة أن واجهة برمجة التطبيقات الصوتية لـ OpenAI قد يتم استغلالها من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالية، وتتراوح معدلات نجاح هذه العمليات من منخفضة إلى متوسطة.

ChatGPT-4o هو أحدث طراز للذكاء الاصطناعي من OpenAI، مع قدرته على استيعاب واستخراج النصوص والأصوات والمرئيات. للحد من إساءة الاستخدام، قامت OpenAI بدمج العديد من الآليات الأمنية التي تهدف إلى اكتشاف المحتوى الضار ومنع تكرار الأصوات غير المصرح بها.

مع انتشار تقنيات التزوير الصوتي العميق وأدوات التزوير الصوتي، تتفاقم مشكلة الاحتيال الصوتي، التي يُقدر أنها فقدت الملايين.

نشر باحثون من جامعة إلينوي ورقة بحثية تظهر أن الأدوات التقنية الحديثة المتاحة للجمهور تفتقر إلى آليات الحماية المناسبة ضد إساءة الاستخدام في الاحتيال.

استعرضت الدراسة أنواعًا متعددة من عمليات الاحتيال، بما في ذلك التحويلات المصرفية وسرقة بطاقات الهدايا وتحويل العملات المشفرة وسرقة بيانات وسائل التواصل الاجتماعي والبريد الإلكتروني.

تستخدم هذه العمليات الاحتيالية أدوات برمجة صوتية ChatGPT-4o للتنقل في صفحات الويب وإدخال البيانات وإدارة رموز المصادقة الثنائية واتباع إرشادات الاحتيال. غالبًا ما يرفض النموذج GPT-4o التعامل مع البيانات الحساسة، لكن الباحثين تمكنوا من التغلب على بعض القيود باستخدام تقنيات بسيطة لحث النموذج على الاستجابة.

لإثبات فعالية عمليات الاحتيال، كرر الباحثون أدوار الضحايا في التجارب، مستخدمين مواقع مثل بنك أوف أمريكا للتحقق من نجاح التحويلات المصرفية، لكنهم لم يقيسوا إقناع النموذج.

أظهرت التجارب أن معدلات النجاح تراوحت من 20٪ إلى 60٪، مع كل محاولة تتطلب ما يصل إلى 26 خطوة متتالية عبر المتصفح، وتستغرق حوالي ثلاث دقائق في الحالات المعقدة. حققت سرقات بيانات حساب Gmail نجاحًا بنسبة 60٪، بينما نجحت تحويلات 
 العملات المشفرة وسرقات بيانات Instagram بنسبة 40٪.
وفيما يتعلق بالتكاليف، فإن تكلفة القيام بالغش منخفضة ؛ تكلف كل معاملة ناجحة حوالي 75 سنتًا أمريكيًا، بينما تكلف التحويلات المصرفية الأكثر تعقيدًا حوالي 2.51 دولارًا فقط.

في تعليق من قبل OpenAI نشره موقع التكنولوجيا BleepingComputer، أشارت إلى أن طرازها الأحدث «o1-preview» يتمتع بقدرات عالية على مقاومة الاحتيال، وأمان محسن مقارنة بالنماذج السابقة، ويحقق تقييمًا عاليًا في الاختبارات الأمنية بنسبة 93٪، مقارنة بـ 71٪ في النموذج GPT-4o.

أوضح OpenAI أن البحث الأكاديمي، مثل ذلك الذي قدمته جامعة إلينوي، يساهم في تحسين ChatGPT لمواجهة الاستخدامات الضارة. وأكدت الشركة من جديد التزامها بتعزيز الآليات الأمنية في نماذجها القادمة وقصرت توليد الأصوات في GPT-4o على مجموعة من الأصوات المصرح بها لتجنب تزوير الصوت.