Efghermes Efghermes Efghermes
الإثنين, مارس 9, 2026
  • Login
جريدة البورصة
  • الرئيسية
    • البورصة والشركات
    • البنوك
    • العقارات
    • الاقتصاد المصرى
    • أسواق
    • استثمار وأعمال
    • السيارات
    • الاتصالات والتكنولوجيا
    • الطاقة
    • الاقتصاد الأخضر
    • النقل والملاحة
    • الاقتصاد العالمى
    • المسؤولية المجتمعية
    • مقالات الرأى
    • منوعات
    • مالتيميديا
  • آخر الأخبار
  • الاقتصاد المصرى
    649473192 1501485972021818 3437593141614014825 n

    رئيس الوزراء: حزمة من الإجراءات الحكومية لترشيد الإنفاق والاستهلاك

    أحمد كجوك، وزير المالية

    وزير المالية: نعمل على دفع مسار الشراكة مع القطاع الخاص

    الدولار والجنيه المصري

    ضغوط الحرب ترفع الدولار إلى 52 جنيهًا

    رئيس الوزراء يستعرض التقديرات الأولية لمشروع موازنة العام المالى 2027/2026

    رئيس الوزراء يستعرض التقديرات الأولية لمشروع موازنة العام المالى 2027/2026

  • البورصة والشركات
  • البنوك
  • استثمار وأعمال
  • العقارات
  • معارض
  • الاقتصاد الأخضر
لا يوجد نتائج
اظهار كل النتائج
  • الرئيسية
    • البورصة والشركات
    • البنوك
    • العقارات
    • الاقتصاد المصرى
    • أسواق
    • استثمار وأعمال
    • السيارات
    • الاتصالات والتكنولوجيا
    • الطاقة
    • الاقتصاد الأخضر
    • النقل والملاحة
    • الاقتصاد العالمى
    • المسؤولية المجتمعية
    • مقالات الرأى
    • منوعات
    • مالتيميديا
  • آخر الأخبار
  • الاقتصاد المصرى
    649473192 1501485972021818 3437593141614014825 n

    رئيس الوزراء: حزمة من الإجراءات الحكومية لترشيد الإنفاق والاستهلاك

    أحمد كجوك، وزير المالية

    وزير المالية: نعمل على دفع مسار الشراكة مع القطاع الخاص

    الدولار والجنيه المصري

    ضغوط الحرب ترفع الدولار إلى 52 جنيهًا

    رئيس الوزراء يستعرض التقديرات الأولية لمشروع موازنة العام المالى 2027/2026

    رئيس الوزراء يستعرض التقديرات الأولية لمشروع موازنة العام المالى 2027/2026

  • البورصة والشركات
  • البنوك
  • استثمار وأعمال
  • العقارات
  • معارض
  • الاقتصاد الأخضر
لا يوجد نتائج
اظهار كل النتائج
جريدة البورصة
لا يوجد نتائج
اظهار كل النتائج

بارمي أولسون تكتب: هل أصبح الذكاء الاصطناعي شريكًا خفيًا في قرارات الحرب؟

"الذكاء الاصطناعي استُخدم في الحروب لأغراض مثل تحليل صور الأقمار الصناعية واكتشاف التهديدات السيبرانية وتوجيه أنظمة الدفاع الصاروخي"

كتب : البورصة خاص
الإثنين 9 مارس 2026
الذكاء الاصطناعى

الذكاء الاصطناعى

“سيكون ضبط استخدام الذكاء الاصطناعي أصعب بكثير، إذ سيتطلب ضغطًا عامًا وتشريعيًا أكبر لإجبار إدارة ترامب على إنشاء إطار مماثل للإبلاغ”

نموذج الذكاء الاصطناعي نفسه الذي يساعد المستخدمين على كتابة رسائل تسويقية أو إعداد وصفات طعام سريعة، تم استخدامه أيضاً في الهجوم الأمريكي على إيران.

لجأت القيادة المركزية الأمريكية لنموذج “كلود” التابع لشركة “أنثروبيك” في “تقييمات استخباراتية، وتحديد الأهداف، ومحاكاة سيناريوهات المعارك” خلال الضربات على البلاد، وفقاً لتقرير نشرته صحيفة “وول ستريت جورنال”.

موضوعات متعلقة

محمد إيهاب عبد الحميد يكتب: لماذا تفشل الشركات الناشئة؟

إندرميت جيل يكتب: لماذا لا تزال المساواة الاقتصادية للمرأة غائبة في معظم اقتصادات العالم؟

عودة سياسات القوى العظمى تهدد نظام التعاون العالمى

وقبل ساعات من ذلك، كان الرئيس الأمريكي دونالد ترامب أمر الوكالات الفيدرالية بالتوقف عن استخدام “كلود” بعد خلاف مع الشركة المطورة له.

لكن الأداة كانت متغلغلة بعمق في أنظمة البنتاجون إلى درجة أن فك ارتباطها سيستغرق أشهراً لصالح منافس أكثر امتثالًا.

كما استُخدمت أيضاً في العملية التي جرت في يناير ، وأسفرت عن القبض على نيكولاس مادورو.

لكن ماذا تعني عملياً عبارتا “التقييمات الاستخباراتية” و”تحديد الأهداف”؟ هل كان “كلود” يحدّد مواقع يُقترح ضربها أو يقدّر عدد الضحايا المحتملين؟

لم يُفصح أحد عن ذلك، والأكثر إثارةً للقلق أنه لا توجد جهة مُلزمة بالإفصاح عنه.

الذكاء الاصطناعي في الحروب

لطالما استُخدم الذكاء الاصطناعي في الحروب لأغراض مثل تحليل صور الأقمار الصناعية، واكتشاف التهديدات السيبرانية، وتوجيه أنظمة الدفاع الصاروخي.

إلا أن استخدام روبوتات المحادثة- وهي التقنية نفسها التي يستخدمها مليارات الأشخاص في مهام يومية مثل كتابة الرسائل الإلكترونية- بدأ الآن يدخل إلى ساحة المعركة.

في نوفمبر الماضي، دخلت “أنثروبيك” في شراكة مع شركة “بالانتير تكنولوجيز”، وهي شركة لتحليل البيانات تعمل على نطاق واسع مع البنتاجون، لتحويل نموذج اللغة الكبير “كلود” إلى محرك الاستدلال داخل نظام دعم القرار العسكري.

ثم في يناير، قدّمت “أنثروبيك” عرضاً بقيمة 100 مليون دولار إلى البنتاجون لتطوير تقنية أسراب الطائرات المسيرة ذاتية التشغيل التي يتم التحكم بها صوتياً، وفق ما أفادت “بلومبرج نيوز”.

وكانت فكرة الشركة تقوم على استخدام “كلود” لترجمة نية القائد العسكري إلى تعليمات رقمية تنسّق عمل أسطول من الطائرات المسيّرة.

رُفض العرض، لكن المناقصة كانت تتطلب أكثر بكثير من مجرد تلخيص تقارير استخباراتية كما قد يُتوقع من روبوت محادثة.

فقد كان العقد يهدف إلى تطوير قدرات تتعلق بـ”الوعي المرتبط بالأهداف ومشاركتها”، إضافة إلى إدارة العمليات من “الإطلاق حتى الإنهاء” لأسراب من الطائرات المسيّرة قد تكون فتاكة.

اللافت أن كل ذلك يحدث في فراغ تنظيمي، وباستخدام تكنولوجيا معروفة بارتكاب الأخطاء.

فظاهرة “الهلوسة” لدى نماذج اللغة الكبيرة هي نتيجة لطريقة تدريبها، حيث تُكافأ على محاولة تقديم إجابة بدل الاعتراف بعدم اليقين.

ويرى بعض العلماء أن مشكلة اختلاق المعلومات في الذكاء الاصطناعي قد لا تُحل بالكامل أبداً.

أنظمة ذكاء اصطناعي غير موثوقة

لن تكون هذه المرة الأولى التي تُستخدم فيها أنظمة ذكاء اصطناعي غير موثوقة في الحروب.

فقد استُخدمت قاعدة بيانات مدعومة بالذكاء الاصطناعي تُدعى “لافندر” للمساعدة في تحديد الأهداف العسكرية المرتبطة بحركة حماس في غزة.

ولم تكن هذه القاعدة نموذج لغة كبير، لكنها حلّلت كميات هائلة من بيانات المراقبة، مثل العلاقات الاجتماعية وسجل المواقع، لإعطاء كل شخص درجة من 1 إلى 100. وعندما تتجاوز درجة شخص ما حداً معيناً، تُصنّفه “لافندر” هدفاً عسكرياً.

لكن المشكلة أن النظام كان يخطئ بنسبة 10%، وفقاً لتحقيق نشره الموقع الإسرائيلي-الفلسطيني “+972”.

وتقول ماريا روزاريا تاديو، أستاذة أخلاقيات التكنولوجيا الرقمية وتقنيات الدفاع في معهد الإنترنت بجامعة أكسفورد، إن “نحو 3600 شخص استُهدفوا بالخطأ”.

وتضيف إلكه شفارتس، أستاذة النظرية السياسية في جامعة “كوين ماري” في لندن ومؤلفة كتاب “Death Machines: The Ethics of Violent Technologies”: “هناك نقاط ضعف هائلة في هذه الأنظمة ودرجة كبيرة جداً من عدم الموثوقية.. عندما يتعلق الأمر بشيء ديناميكي وحساس وإنساني مثل الحرب”.

تسريع الحرب وتقليل الرقابة البشرية

تشير شفارتس، إلى أن الذكاء الاصطناعي يُستخدم غالباً في الحروب لتسريع العمليات، وهو ما قد يؤدي إلى نتائج غير مرغوبة.

فالقرارات تُتخذ بسرعة أكبر وعلى نطاق أوسع ومع قدر أقل من التدقيق البشري.

وتقول إن استخدام الذكاء الاصطناعي في المجال العسكري أصبح أكثر غموضاً خلال العقد ونصف العقد الماضيين.

كما أن السرية جزء أساسي من طريقة عمل مختبرات الذكاء الاصطناعي حتى قبل تطبيقاتها العسكرية.

فهذه الشركات ترفض الإفصاح عن البيانات التي تُدرَّب عليها نماذجها أو عن كيفية توصل أنظمتها إلى استنتاجاتها.

بالطبع، غالباً ما تُحاط العمليات العسكرية بالسرية لحماية المقاتلين ومنع الأعداء من كشف الخطط.

لكن الدفاع يخضع أيضاً لـ”القانون الدولي الإنساني” ومعايير لاختبار الأسلحة، والتي ينبغي نظرياً أن تشمل استخدام الذكاء الاصطناعي.

ومع ذلك، فإن هذه المعايير إما مفقودة أو غير كافية إلى حد كبير.

وتشير تاديو إلى أن المادة 36 من اتفاقية جنيف تشترط اختبار أنظمة الأسلحة الجديدة قبل نشرها. لكن نظام الذكاء الاصطناعي الذي يتعلم من بيئته يصبح نظاماً جديداً في كل مرة يتم تحديثه، ما يجعل تطبيق هذه القاعدة شبه مستحيل.

غياب الشفافية حول استخدام التكنولوجيا في الحروب

في عالم مثالي، قد تكشف حكومات مثل حكومة أمريكا عن كيفية استخدام هذه الأنظمة في ساحة المعركة.

وهناك سابقة لذلك. فقد بدأت الولايات المتحدة استخدام الطائرات المسيرة المسلحة بعد هجمات 11 سبتمبر 2001، ثم وسعت استخدامها في عهد الرئيس باراك أوباما، مع رفض الاعتراف بوجود البرنامج أصلًا.

استغرق الأمر نحو 15 عاماً من الوثائق المسرّبة والضغط الإعلامي والدعاوى القضائية التي رفعها “الاتحاد الأمريكي للحريات المدنية” (ACLU) قبل أن ينشر البيت الأبيض في 2016 أعداد الضحايا الناتجة عن ضربات الطائرات المسيرة.

ورغم أن الأرقام اعتُبرت أقل من الواقع، فإنها سمحت لأول مرة للرأي العام والكونغرس ووسائل الإعلام بمساءلة الحكومة.

سيكون ضبط استخدام الذكاء الاصطناعي أصعب بكثير، إذ سيتطلب ضغطاً عاماً وتشريعياً أكبر لإجبار إدارة ترامب المتشددة على إنشاء إطار مماثل للإبلاغ.

ولا يتمثل الهدف في الكشف الدقيق عن كيفية استخدام “كلود” في عملية مثل “عملية الغضب الملحمي”، بل في نشر الخطوط العامة لاستخدامه، وفقاً لشفارتس.

والأهم من ذلك، الكشف عندما يحدث خطأ ما.

الخلاف بين “أنثروبيك” والبنتاجون

النقاش العام الحالي عن الخلاف بين “أنثروبيك” والبنتاجون حول ما هو قانوني أو أخلاقي للذكاء الاصطناعي فيما يتعلق بالمراقبة الجماعية للأمريكيين أو تطوير أسلحة ذاتية التشغيل بالكامل يغفل سؤالًا أكبر: غياب الشفافية بشأن كيفية استخدام هذه التكنولوجيا بالفعل في الحروب.

مع وجود أنظمة جديدة وغير مجرَّبة عرضة للأخطاء، تصبح هذه الشفافية ضرورية.

وتقول تاديو: “لم نقرر بعد كمجتمع ما إذا كنا مرتاحين لفكرة أن آلة قد تقرر ما إذا كان يجب قتل إنسان أم لا”.

الدفع نحو هذه الشفافية أمر بالغ الأهمية قبل أن يصبح استخدام الذكاء الاصطناعي في الحروب أمراً روتينياً إلى درجة أن أحداً لن يفكر في طرح الأسئلة بعد الآن.

وإلا فقد نجد أنفسنا ننتظر خطأً كارثياً، ولا نفرض الشفافية إلا بعد وقوع الضرر.

بقلم: بارمي أولسون، كاتبة مقالات رأي لدى “بلومبرج”

المصدر: وكالة أنباء “بلومبرج”

 

الوسوم: الذكاء الاصطناعى

لمتابعة أخر الأخبار والتحليلات من جريدة البورصة عبر واتس اب اضغط هنا

لمتابعة أخر الأخبار والتحليلات من جريدة البورصة عبر التليجرام اضغط هنا

المقال السابق

زيادة حتى 100 ألف جنيه.. أسعار السيارات في مصر تعود للارتفاع

موضوعات متعلقة

محمد إيهاب عبد الحميد، مؤسس "كابيتال كاتاليستس" لتأهيل الشركات الناشئة للاستثمار
مقالات الرأى

محمد إيهاب عبد الحميد يكتب: لماذا تفشل الشركات الناشئة؟

الإثنين 9 مارس 2026
بي654ي6
مقالات الرأى

إندرميت جيل يكتب: لماذا لا تزال المساواة الاقتصادية للمرأة غائبة في معظم اقتصادات العالم؟

الأربعاء 4 مارس 2026
Screen Shot 2026 03 03 at 10.31.17 PM
مقالات الرأى

عودة سياسات القوى العظمى تهدد نظام التعاون العالمى

الثلاثاء 3 مارس 2026
جريدة البورصة

© 2023 - الجريدة الاقتصادية الأولى في مصر

تصفح

  • الصفحة الرئيسية
  • إشترك معنا
  • فريق العمل
  • إخلاء المسئولية
  • اتصل بنا

تابعونا

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

لا يوجد نتائج
اظهار كل النتائج
  • الرئيسية
    • البورصة والشركات
    • البنوك
    • العقارات
    • الاقتصاد المصرى
    • أسواق
    • استثمار وأعمال
    • السيارات
    • الاتصالات والتكنولوجيا
    • الطاقة
    • الاقتصاد الأخضر
    • النقل والملاحة
    • الاقتصاد العالمى
    • المسؤولية المجتمعية
    • مقالات الرأى
    • منوعات
    • مالتيميديا
  • آخر الأخبار
  • الاقتصاد المصرى
  • البورصة والشركات
  • البنوك
  • استثمار وأعمال
  • العقارات
  • معارض
  • الاقتصاد الأخضر

© 2023 - الجريدة الاقتصادية الأولى في مصر

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.