منوعات

إليك 12 تهديدا محتملا للذكاء الاصطناعي على حياة البشر

الشروق أونلاين
  • 1117
  • 0

حذرت لجنة العلوم والابتكار والتكنولوجيا في البرلمان البريطاني، من 12 تهديدا محتملا للذكاء الاصطناعي على حياة البشر.

وطالبت اللجنة أن تكون مخاطر الذكاء الاصطناعي محور أي تنظيم حكومي مستقبلا وأن توضع ضوابط لاستخدام هذه التقنية.

وقال رئيس لجنة العلوم والابتكار والتكنولوجيا، جريج كلارك، في مقال على صفحة اللجنة بالبرلمان البريطاني الرسمية: “لقد غيّر الذكاء الاصطناعي بالفعل الطريقة التي نعيش بها حياتنا، ويبدو من المؤكد أنه سيشهد نموًا هائلاً في تأثيره على مجتمعنا واقتصادنا.”

وأضاف “إن الذكاء الاصطناعي مليء بالفرص، ولكنه يحتوي أيضًا على العديد من المخاطر المهمة التي تهدد الحقوق الراسخة والعزيزة – بدءًا من الخصوصية الشخصية إلى الأمن القومي – والتي يتوقع الناس من صناع السياسات الحذر منها.”

وتابع “يحدد تقريرنا المؤقت اثني عشر تحديًا يجب على صناع السياسات معالجتها إذا أردنا تأمين ثقة الجمهور في الذكاء الاصطناعي.”

وشخصت اللجنة 12 تحديا يشكلها الذكاء الاصطناعي، مشيرة إلى ضرورة معالجة هذه التحديات لمقاربة مشتركة بين الدول للحد من مخاطر التقنية الحديثة.

وأوضحت اللجنة أن التهديدات المحتملة للذكاء الاصطناعي على البشر تتمثل في:

1- تهديد وجودي:

يعتقد بعض الناس أن الذكاء الاصطناعي يشكل تهديدًا كبيرًا لحياة الإنسان. إذا كان هذا احتمالا، فإن الحكم يحتاج إلى توفير الحماية للأمن القومي.

2- التحيز:

يمكن للذكاء الاصطناعي أن يقدم أو يديم التحيزات التي يعتبرها المجتمع غير مقبولة.

3- الخصوصية:

يمكن استخدام المعلومات الحساسة التابعة للأفراد أو الشركات لتدريب نماذج الذكاء الاصطناعي.

4- التحريف:

حذرت اللجنة من احتمالية إنتاج نماذج “ChatGPT” مواد محرفة حول سلوك وتصرفات شخص ما ووجهات نظره الشخصية.

5- البيانات:

يحتاج الذكاء الاصطناعي الأقوى إلى مجموعات بيانات كبيرة جدًا، والتي يحتفظ بها عدد قليل من المنظمات

6- قوة الحوسبة:

تطلب تطوير الذكاء الاصطناعي القوي قوة حوسبة كبيرة، ويقتصر الوصول إليها على عدد قليل من المؤسسات.

7- الشفافية:

تكافح نماذج الذكاء الاصطناعي لشرح سبب بثها نتيجة معينة، أو من أين تأتي بالمعلومات.

8- حقوق الملكية:

تستفيد بعض نماذج وأدوات الذكاء الاصطناعي من محتوى أشخاص آخرين: يجب أن تحدد السياسة حقوق منشئي هذا المحتوى، ويجب إنفاذ هذه الحقوق.

9- المسؤولية:

إذا تم استخدام أدوات الذكاء الاصطناعي لإلحاق الضرر، فيجب أن تحدد السياسة ما إذا كان المطورون أو مقدمو الخدمة مسؤولين أم لا، وفق اللجنة.

10- الوظائف:

طالبت لجنة العلوم والتكنولوجيا البريطانية السياسيين بأن يتوقعوا التأثير المحتمل الذي سيخلفه تبني الذكاء الاصطناعي على الوظائف الحالية.

11- الانفتاح:

ودعت لجعل الكود الحاسوبي وراء نماذج الذكاء الاصطناعي متاحا بشكل مفتوح، للسماح بتنظيم أكثر موثوقية وتعزيز الشفافية والابتكار.

12- التنسيق الدولي:

تطوير أي تنظيم يجب أن يكون مهمة دولية، ويجب أن ترحب قمة نوفمبر القادم حول سلامة الذكاء الاصطناعي الممع عقدها بريطانيا بأكبر عدد ممكن من الدول المشاركة.

مقالات ذات صلة