عمان جو - حذرت دراسة حديثة من أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI يمكن أن تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي معقدة. وعلى الرغم من أن OpenAI قد أدمجت آليات أمان عدة، إلا أن الدراسة تشير إلى أن هذه الأدوات تفتقر إلى الحماية الكافية من إساءة الاستخدام.
تتراوح معدلات نجاح هذه العمليات الاحتيالية بين 20% و60%، مما يثير القلق بشأن القدرة على حماية المستخدمين. وجاءت الدراسة التي نشرتها جامعة إلينوي لتسلط الضوء على الأنواع المتعددة من الاحتيال، بما في ذلك التحويلات المصرفية وسرقة بطاقات الهدايا، وعمليات تحويل العملات الرقمية، وسرقة بيانات حسابات وسائل التواصل الاجتماعي والبريد الإلكتروني.
يستخدم المحتالون أدوات تعتمد على الصوت في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، مما يسهل تنفيذ عمليات الاحتيال. بينما يرفض النموذج التعامل مع البيانات الحساسة، تمكن الباحثون من تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.
خلال التجارب، أظهر الباحثون أن معدل نجاح عمليات سرقة بيانات حسابات Gmail بلغ حوالي 60%، في حين وصلت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستغرام إلى 40%. تكاليف تنفيذ هذه العمليات كانت منخفضة، حيث وصلت إلى حوالي 75 سنتًا لكل عملية ناجحة، بينما كانت تكاليف العمليات الأكثر تعقيدًا حوالي 2.51 دولار.
وفي تعقيب لها، أكدت OpenAI أن النموذج الجديد 'o1-preview' يتمتع بقدرات محسنة لمقاومة الاحتيال مقارنة بالنماذج السابقة. حيث حقق هذا النموذج تقييمًا عالياً في اختبارات الأمان بنسبة 93%، مقارنة بـ71% في نموذج GPT-4o. وأشارت OpenAI إلى أن الأبحاث الأكاديمية مثل تلك التي قدمتها جامعة إلينوي تساعد في تحسين ChatGPT لمواجهة الاستخدامات الضارة، وملتزمة بتعزيز آليات الأمان في نماذجها المستقبلية.
بالتالي، تتطلب المخاطر المرتبطة باستخدام الذكاء الاصطناعي وعيًا أكبر من قبل المستخدمين وتعاونًا مع الشركات المطورة لتعزيز آليات الحماية وضمان الاستخدام الآمن للتكنولوجيا.
عمان جو - حذرت دراسة حديثة من أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI يمكن أن تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي معقدة. وعلى الرغم من أن OpenAI قد أدمجت آليات أمان عدة، إلا أن الدراسة تشير إلى أن هذه الأدوات تفتقر إلى الحماية الكافية من إساءة الاستخدام.
تتراوح معدلات نجاح هذه العمليات الاحتيالية بين 20% و60%، مما يثير القلق بشأن القدرة على حماية المستخدمين. وجاءت الدراسة التي نشرتها جامعة إلينوي لتسلط الضوء على الأنواع المتعددة من الاحتيال، بما في ذلك التحويلات المصرفية وسرقة بطاقات الهدايا، وعمليات تحويل العملات الرقمية، وسرقة بيانات حسابات وسائل التواصل الاجتماعي والبريد الإلكتروني.
يستخدم المحتالون أدوات تعتمد على الصوت في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، مما يسهل تنفيذ عمليات الاحتيال. بينما يرفض النموذج التعامل مع البيانات الحساسة، تمكن الباحثون من تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.
خلال التجارب، أظهر الباحثون أن معدل نجاح عمليات سرقة بيانات حسابات Gmail بلغ حوالي 60%، في حين وصلت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستغرام إلى 40%. تكاليف تنفيذ هذه العمليات كانت منخفضة، حيث وصلت إلى حوالي 75 سنتًا لكل عملية ناجحة، بينما كانت تكاليف العمليات الأكثر تعقيدًا حوالي 2.51 دولار.
وفي تعقيب لها، أكدت OpenAI أن النموذج الجديد 'o1-preview' يتمتع بقدرات محسنة لمقاومة الاحتيال مقارنة بالنماذج السابقة. حيث حقق هذا النموذج تقييمًا عالياً في اختبارات الأمان بنسبة 93%، مقارنة بـ71% في نموذج GPT-4o. وأشارت OpenAI إلى أن الأبحاث الأكاديمية مثل تلك التي قدمتها جامعة إلينوي تساعد في تحسين ChatGPT لمواجهة الاستخدامات الضارة، وملتزمة بتعزيز آليات الأمان في نماذجها المستقبلية.
بالتالي، تتطلب المخاطر المرتبطة باستخدام الذكاء الاصطناعي وعيًا أكبر من قبل المستخدمين وتعاونًا مع الشركات المطورة لتعزيز آليات الحماية وضمان الاستخدام الآمن للتكنولوجيا.
عمان جو - حذرت دراسة حديثة من أن واجهة برمجة التطبيقات الصوتية لمساعد ChatGPT-4o من OpenAI يمكن أن تُستغل من قبل مجرمي الإنترنت لتنفيذ عمليات احتيال مالي معقدة. وعلى الرغم من أن OpenAI قد أدمجت آليات أمان عدة، إلا أن الدراسة تشير إلى أن هذه الأدوات تفتقر إلى الحماية الكافية من إساءة الاستخدام.
تتراوح معدلات نجاح هذه العمليات الاحتيالية بين 20% و60%، مما يثير القلق بشأن القدرة على حماية المستخدمين. وجاءت الدراسة التي نشرتها جامعة إلينوي لتسلط الضوء على الأنواع المتعددة من الاحتيال، بما في ذلك التحويلات المصرفية وسرقة بطاقات الهدايا، وعمليات تحويل العملات الرقمية، وسرقة بيانات حسابات وسائل التواصل الاجتماعي والبريد الإلكتروني.
يستخدم المحتالون أدوات تعتمد على الصوت في ChatGPT-4o للتنقل بين صفحات الويب، وإدخال البيانات، وإدارة الأكواد الخاصة بالمصادقة الثنائية، مما يسهل تنفيذ عمليات الاحتيال. بينما يرفض النموذج التعامل مع البيانات الحساسة، تمكن الباحثون من تجاوز بعض القيود باستخدام تقنيات بسيطة لتحفيز النموذج على الاستجابة.
خلال التجارب، أظهر الباحثون أن معدل نجاح عمليات سرقة بيانات حسابات Gmail بلغ حوالي 60%، في حين وصلت نسبة نجاح عمليات تحويل العملات الرقمية وسرقة بيانات إنستغرام إلى 40%. تكاليف تنفيذ هذه العمليات كانت منخفضة، حيث وصلت إلى حوالي 75 سنتًا لكل عملية ناجحة، بينما كانت تكاليف العمليات الأكثر تعقيدًا حوالي 2.51 دولار.
وفي تعقيب لها، أكدت OpenAI أن النموذج الجديد 'o1-preview' يتمتع بقدرات محسنة لمقاومة الاحتيال مقارنة بالنماذج السابقة. حيث حقق هذا النموذج تقييمًا عالياً في اختبارات الأمان بنسبة 93%، مقارنة بـ71% في نموذج GPT-4o. وأشارت OpenAI إلى أن الأبحاث الأكاديمية مثل تلك التي قدمتها جامعة إلينوي تساعد في تحسين ChatGPT لمواجهة الاستخدامات الضارة، وملتزمة بتعزيز آليات الأمان في نماذجها المستقبلية.
بالتالي، تتطلب المخاطر المرتبطة باستخدام الذكاء الاصطناعي وعيًا أكبر من قبل المستخدمين وتعاونًا مع الشركات المطورة لتعزيز آليات الحماية وضمان الاستخدام الآمن للتكنولوجيا.
التعليقات