دخل الجدل حول أخلاقيات الذكاء الاصطناعي مرحلة أكثر حساسية، بعدما كشف عدد من العاملين في تدريب النماذج عن مشكلات جوهرية تتعلق بجودة البيانات، وضغوط الإنتاج، وضعف الإشراف، ما يهدد موثوقية النماذج التجارية التي تعتمد عليها شركات كبرى مثل أمازون وجوجل، إضافة إلى نماذج “ميتا” و”جروك” المملوك لـ إيلون ماسك.
ونقلت تصريحات خاصة لصحيفة الجارديان البريطانية، ووفق شهادات عاملين يقومون بتقييم مخرجات النماذج وصحة المعلومات، فإن العديد منهم فقد الثقة في استخدام الأدوات التوليدية شخصياً، بل بدأوا في تحذير عائلاتهم من الاعتماد عليها، مشيرين إلى أن التدريب يتم غالباً تحت ضغوط زمنية وبتعليمات غير واضحة، مع غياب التدريب المتخصص، خصوصاً عند التعامل مع محتوى طبي أو حساس.
وقالت إحدى العاملات لدى “جوجل” إن الشركة تعتمد على مقيمين لا يمتلكون خلفيات طبية لمراجعة إجابات تتعلق بالصحة، ما يشكّل خطراً على دقة المعلومات.
وأظهرت مراجعات مؤسسة “نيوزجارد” المختصة بتقييم المصداقية الإعلامية تراجع معدلات الامتناع عن الإجابة لدى النماذج الكبرى مثل “جيميني” و”جروك” و”تشات جي بي تي” من 31% إلى 0% خلال عام، مقابل ارتفاع معدل تكرار المعلومات الخاطئة من 18% إلى 35%.
وأشار العاملون إلى أن الشركات تركز على سرعة تطوير النماذج وتحقيق عائدات تجارية، على حساب الجودة والأمان، وهو ما يعزز مخاطر انتشار معلومات مضللة تؤثر على القطاعات الاقتصادية الحساسة التي بدأت تعتمد على الذكاء الاصطناعي في التشغيل واتخاذ القرار.
ويرى باحثون، من بينهم متخصصون في معهد أبحاث الذكاء الاصطناعي الموزع (DAIR)، أن نماذج الذكاء الاصطناعي الحالية “هشّة وليست مستدامة”، نتيجة اعتمادها على بيانات غير موثوقة وعمليات تدريب غير منظمة، فيما تتزايد الدعوات لوضع أطر تنظيمية تحمي المستخدمين وتضمن شفافية مصادر البيانات وتعويض العاملين الذين يساهمون في بناء هذه الأنظمة.
وتحاول بعض الجهات الأكاديمية نشر الوعي بالمخاطر الأخلاقية والبيئية للذكاء الاصطناعي، إذ قدمت عاملات في القطاع عرضاً أمام رابطة مجالس المدارس في ميشيغان لتحذير المؤسسات التعليمية من الاعتماد غير المدروس على هذه التكنولوجيا.
وتشير هذه التطورات إلى تعاظم المخاوف حول البنية الاقتصادية لنماذج الذكاء الاصطناعي التجارية، مع احتمال تعرض الشركات التي تعتمد عليها في منتجاتها وخدماتها لمخاطر قانونية وتنظيمية متزايدة إذا لم تُعالج هذه الثغرات.








