يشبه الذكاء الاصطناعي التوليدي كل تقدم تقني سبقه، ففي حين أنه يمكن استخدامه لأداء مهام تسهّل حياة الناس، يحمل الاعتماد عليه مخاطر أمنية.
يمكن استخدام روبوتات الدردشة المدعومة بالذكاء الاصطناعي مثل “ChatGPT” من “OpenAI”، في الإنتاجية والإبداع، وكذلك بشكل متزايد في عمليات الاحتيال وإساءة الاستخدام.
مخاوف المستخدمين من تقنيات الذكاء الاصطناعي
تعتبر التزييفات العميقة التي يتم إنتاجها بواسطة أدوات الذكاء الاصطناعي التوليدي من بين أكثر وسائط المحتوى الضار انتشارًا على الإنترنت في الوقت الحالي.
يشير هذا النوع إلى المحتوى السمعي البصري الذي تم إنشاؤه بشكل مصطنع، ويشتمل على عمليات احتيال على الناخبين من خلال انتحال شخصية سياسيين أو إنشاء صور إباحية للمشاهير.
كما أظهر استطلاع أجرته شركة “Microsoft” مؤخرًا، فإن المنتجات المزيفة وعمليات الاحتيال وإساءة الاستخدام هي أكثر ما يثير قلق مستخدمي الإنترنت في جميع أنحاء العالم.
في نتائج الاستطلاع، الذي أجرته “Microsoft” في شهري يوليو وأغسطس 2023 كان 71% من المشاركين في 17 دولة شملها الاستطلاع يشعرون بالقلق الشديد أو إلى حد ما بشأن عمليات الاحتيال بمساعدة الذكاء الاصطناعي.
ويأتي في المرتبة الثانية التزييف العميق الإساءة الجنسية أو الإيذاء عبر الإنترنت بنسبة 69%.
وفي المرتبة الرابعة، تأتي هلوسة الذكاء الاصطناعي، والتي يتم تعريفها على أنها روبوتات الدردشة مثل “ChatGPT” التي تقدم إجابات لا معنى لها كحقائق بسبب مشاكل تتعلق بالمواد التدريبية.
وتتواجد المخاوف المتعلقة بخصوصية البيانات، الناتجة عن نماذج اللغة الكبيرة التي يتم تدريبها على البيانات المتاحة للجمهور من المستخدمين دون موافقتهم الصريحة الموافقة، في المركز الخامس بنسبة 62%.
بشكل عام، كان 87% من المشاركين قلقين إلى حد ما على الأقل بشأن أحد مخاطر الذكاء الاصطناعي.
وعلى الرغم من السوق الضخمة للذكاء الاصطناعي التي تقدر قيمتها بما يتراوح بين 1.125 و2.063 مليار ريال سعودي في عام 2024، تشير نتائج الاستطلاع إلى أن تجاهل مخاطره المحتملة قد يضر بالمجتمع ككل.
وينطبق هذا بشكل خاص في المجالات الحساسة مثل السياسة، فمع اقتراب موعد الانتخابات الرئاسية الأمريكية في الخريف، من المحتم أن يكون مشهد وسائل التواصل الاجتماعي مليئا بالمعلومات الخاطئة والمضللة المصطنعة.