يكمن وراء الكثير من الإثارة والخوف بشأن التقدم فى الذكاء الاصطناعى التوليدى سؤالا أساسيًا: من سيتحكم فى هذه التقنيات.. شركات التكنولوجيا الكبيرة التى تمتلك قوة حاسوبية هائلة وبيانات لبناء نماذج ذكاء اصطناعى جديدة أم المجتمع ككل؟
يقودنا هذا إلى قلب الجدل السياسى حول ما إذا كان يجب على الشركات الاحتفاظ بنماذج الذكاء الاصطناعى الخاصة بها داخل الشركة أو إتاحتها بشكل أكثر انفتاحًا، ومع استمرار الجدل، نمت قضية الانفتاح.
ويرجع ذلك جزئيًا إلى التطبيق العملى – فليس من المستدام الاحتفاظ بالتكنولوجيا التأسيسية فى أيدى عدد قليل من الشركات الكبيرة – وجزئيًا بسبب سجل المصادر المفتوحة.
وفى هذا السياق، من المهم التمييز بين نماذج الذكاء الاصطناعى الحالية والنماذج المستقبلية المحتملة.
ولعل أكثر التحذيرات البائسة بشأن الذكاء الاصطناعى هى الخاصة بالقفزة أو القفزات التكنولوجية، فهناك عالم من الاختلاف بين تطبيقات روبوتات المحادثة لنماذج اللغات الكبيرة اليوم والنماذج الرائدة الضخمة القادرة نظريًا على الذكاء الخارق بأسلوب الخيال العلمى، لكننا لم نصعد بعد الجبال لنتناقش حول المخاطر التى قد نجدها على قمة الجبل.
مثل جميع التقنيات الأساسية – من أجهزة الإرسال اللاسلكية إلى أنظمة تشغيل الإنترنت – سيكون هناك العديد من الاستخدامات لنماذج الذكاء الاصطناعى، بعضها يمكن التنبؤ به والبعض الآخر لا.
ومثل كل تقنية، سيتم استخدام الذكاء الاصطناعى لتحقيق غايات جيدة وسيئة على حد سواء من قبل الأشخاص الجيدين والأشرار.
ولا يمكن التعويل على جعل نماذج الذكاء الاصطناعى طى الكتمان فى مواجهة عدم اليقين، لقد انطلق الحصان بالفعل، وتم فتح العديد من نماذج اللغات الكبيرة، مثل “فالكون 40 بى” و”إم بى تى 30 بى”، والعشرات قبلها.
وتعمل البنية التحتية للإنترنت على كود مفتوح المصدر، كما تفعل متصفحات الويب والعديد من التطبيقات التى نستخدمها كل يوم.
وبينما لا يمكننا القضاء على المخاطر المتعلقة بالذكاء الاصطناعى، يمكننا التخفيف منها، وفيما يلى أربع خطوات أعتقد أنه يجب على شركات التكنولوجيا اتخاذها.
الخطوة الأولى، يجب أن يكونوا شفافين بشأن كيفية عمل أنظمتهم، فى “ميتا”، أصدرنا مؤخرًا 22 بطاقة نظام لتطبيقى “فيس بوك” و”إنستجرام”، والتى تمنح الأشخاص نظرة ثاقبة حول الذكاء الاصطناعى وراء كيفية تصنيف المحتوى والتوصية به بطريقة لا تتطلب معرفة تقنية عميقة.
أما الخطوة الثانية، فيجب أن يكون هذا الانفتاح مصحوبًا بالتعاون عبر رواد الصناعة والحكومة والأوساط الأكاديمية والمجتمع المدنى، و”ميتا” عضو مؤسس فى الشراكة بالذكاء الاصطناعى، إلى جانب “أمازون”، و”جوجل”، و”ديب مايند”، و”مايكروسوفت”، وآى بى إم”.
ونحن نشارك فى إطار العمل الجماعى على الوسائط الاصطناعية، وهى خطوة مهمة فى ضمان إنشاء حواجز حماية حول المحتوى الذى يتم إنشاؤه بواسطة الذكاء الاصطناعى.
والخطوة الثالثة، يجب اختبار ضغط أنظمة الذكاء الاصطناعى، وقبل إطلاق الجيل القادم من “إل لاما Llama”، نموذجنا اللغوى الكبير، تقوم “ميتا” بإجراء عملية شائعة فى الأمن السيبرانى، بحيث تأخذ فرقًا دور الخصوم للبحث عن العيوب والعواقب غير المقصودة.
وستقدم “ميتا”أحدث طرازات النظام اللغوى الخاصة بها إلى مؤتمر “ديفكون” فى لاس فيجاس الشهر المقبل، حيث يمكن للخبراء إجراء مزيد من التحليل واختبارات الضغط.
والافتراض الخاطئ أن تحرير التعليمات البرمجية المصدر أو أوزان النموذج يجعل الأنظمة أكثر عرضة للخطر، وعلى العكس من ذلك، يمكن للمطورين والباحثين الخارجيين تحديد المشكلات التى قد تستغرق وقتًا أطول بكثير فى بقاء الفرق المختبئة داخل صوامع الشركة.
ووجد الباحثون الذين اختبروا نموذج اللغة “بليندر بوت 2” الذى طورته “ميتا” أنه يمكن خداعهم لتذكر المعلومات الخاطئة، ونتيجة لذلك، كان “بليندر بوت” أكثر مقاومة له.
وأخيرًا، يجب على الشركات مشاركة تفاصيل عملها أثناء تطويره، سواء كان ذلك من خلال الأوراق الأكاديمية والإعلانات العامة، أو المناقشة المفتوحة للفوائد والمخاطر، إذا كان ذلك مناسبًا، مع إتاحة التكنولوجيا نفسها للبحث وتطوير المنتجات.
الانفتاح ليس إيثارًا تعتقد “ميتا” أنه فى مصلحتها، إذ يؤدى إلى منتجات أفضل وابتكار أسرع وسوق مزدهر، وهو ما يفيدنا كما يفعل العديد من الآخرين، وهذا لا يعنى أن كل نموذج يمكن أو يجب أن يكون مفتوح المصدر، فهناك دور لكل من نماذج الذكاء الاصطناعى الخاصة والمفتوحة.
لكن فى النهاية، الانفتاح هو أفضل علاج للمخاوف المحيطة بالذكاء الاصطناعى، ويسمح بالتعاون والتدقيق والتكرار، كما يمنح الشركات والشركات الناشئة والباحثين إمكانية الوصول إلى الأدوات التى لا يمكنهم أبدًا بناء أنفسهم بها، مدعومة بقوة الحوسبة التى لا يمكنهم الوصول إليها بخلاف ذلك، ما يفتح عالمًا من الفرص الاجتماعية والاقتصادية.
المصدر: فاينانشيال تايمز
بقلم: نيك كليج، رئيس الشئون العالمية فى “ميتا”








