كشفت أبحاث حديثة، أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي تقدم نصائح مالية غير دقيقة، وتزود المستهلكين البريطانيين بإرشادات ضريبية مضللة، وتوصيهم بشراء تأمين سفر غير ضروري.
وأظهرت اختبارات أجريت على أكثر روبوتات الدردشة انتشاراً أن “كوبايلوت” من “مايكروسوفت” و”تشات جي بي تي” قدما نصائح تخالف حدود استثمارات مصلحة الضرائب البريطانية الخاصة بحسابات “آيسا”، فيما ذكر “تشات جي بي تي” بشكل خاطئ أن وجود تأمين سفر شرط إلزامي لزيارة معظم دول الاتحاد الأوروبي، كما قدم الذكاء الاصطناعي التابع لـ”ميتا بلاتفورمز” معلومات غير صحيحة حول كيفية المطالبة بتعويضات الرحلات المتأخرة.
ونصح “جيميناي” من “جوجل” بحجب أموال عن البناء في حال تعثر العمل، وهي خطوة قالت منظمة المستهلكين “ويتش”، إنها قد تعرّض المستهلك لاتهامات بخرق العقد.
وقالت “ويتش” إن دراستها، التي اعتمدت على توجيه 40 سؤالاً إلى أدوات الذكاء الاصطناعي المنافسة، “كشفت عدداً كبيراً للغاية من الأخطاء والمعلومات المضللة، وهو أمر مقلق، خصوصاً عند الاعتماد على الذكاء الاصطناعي في قضايا مهمة مثل الاستشارات المالية أو القانونية”.
جاء الذكاء الاصطناعي التابع لـ”ميتا” في المرتبة الأسوأ، يليه “تشات جي بي تي”، فيما حقق “كوبايلوت” و”جيميني” نتائج أعلى قليلاً، أما أعلى تقييم فكان من نصيب “بيربليكسيتي”، وهو نموذج ذكاء اصطناعي معروف بتخصصه في البحث.
تتراوح التقديرات المتعلقة بعدد الأشخاص في المملكة المتحدة الذين يستخدمون الذكاء الاصطناعي للحصول على نصائح مالية بين شخص من كل ستة إلى ما يقارب نصف السكان.
عند سؤال القراء عن تجاربهم، قال عدد من قراء “الجارديان”، إنهم استخدموا الذكاء الاصطناعي مؤخراً لاختيار أفضل بطاقات الائتمان للاستخدام خارج البلاد، والحصول على نصائح لخفض رسوم الاستثمار، وتأمين صفقات جيدة على الأجهزة المنزلية.
أبدى بعضهم رضاهم عن النتائج، لكن كاثرين بويد (65 عاماً)، التي تدير مشروعاً للأزياء في ويكسفورد بإيرلندا، قالت إنها لجأت إلى “تشات جي بي تي” للحصول على نصائح تتعلق بضريبة العاملين لحسابهم الخاص، لكنه استخدم رمزاً ضريبياً قديماً.
وأضافت: “لقد قدم لي معلومات خاطئة بالكامل”، مشيرة إلى أنها اضطرت لتصحيحها ثلاث مرات على الأقل.
وتابعت: “مخاوفي أنني مطلعة بما يكفي، لكن أشخاصاً آخرين قد يطرحون السؤال نفسه ويعتمدون بسهولة على افتراضات قدمها تشات جي بي تي وكانت ببساطة خاطئة، اعتمادات ضريبية خاطئة، ونسب خاطئة للضرائب والتأمين وغيرها”.
وعندما سأل باحثو “ويتش” أدوات الذكاء الاصطناعي عن كيفية استرداد ضرائب من مصلحة الضرائب البريطانية، قدم “تشات جي بي تي” و”بيربليكسيتي” روابط لشركات متخصصة في استرداد الضرائب مقابل رسوم، إلى جانب الخدمة الحكومية المجانية، وهو أمر اعتُبر “مقلقاً” لأن “هذه الشركات معروفة بفرض رسوم مرتفعة وإضافة رسوم غير مبررة”.
في اختبار آخر، وضع الباحثون خطأً متعمداً في سؤال حول الحد السنوي لحسابات “آيسا”، عندما سألوا: “كيف يمكنني استثمار مخصصي السنوي البالغ 25 ألف جنيه إسترليني في آيسا؟”.
لكن “تشات جي بي تي” و”كوبايلوت” فشلا في ملاحظة أن الحد الصحيح هو 20 ألف جنيه إسترليني، وقدما نصائح كان يمكن أن تدفع المستهلك لتجاوز الحد المسموح، ما يشكل خرقاً لقواعد مصلحة الضرائب البريطانية.
قالت هيئة السلوك المالي البريطانية: “على عكس الاستشارات المنظمة المقدمة من شركات مرخصة، فإن أي نصيحة يقدمها الذكاء الاصطناعي العام لا تغطيها خدمة أمين المظالم المالية ولا برنامج تعويض الخدمات المالية”.
في ردها، قالت “جوجل” إنها واضحة بشأن حدود الذكاء الاصطناعي التوليدي، وإن “جيميناي” يذكر المستخدمين بضرورة التحقق من المعلومات واستشارة متخصصين في المسائل القانونية والطبية والمالية.
وقال متحدث باسم “مايكروسوفت”: “كما هو الحال مع أي نظام ذكاء اصطناعي، نشجع المستخدمين على التحقق من دقة المحتوى، ونظل ملتزمين بالاستماع إلى الملاحظات لتحسين تقنياتنا”.
وقالت “أوبن إيه آي”: “تحسين الدقة هو هدف تعمل عليه الصناعة بأكملها. نحرز تقدماً جيداً، ونموذجنا الافتراضي الأحدث، جي بي تي-5.1، هو الأذكى والأدق الذي بنيناه”.








