بقلم: يورونيوز
نشرت في
اعلان
يُعدّ هذا الخطأ الفادح في المحكمة العليا لولاية فيكتوريا حلقة أخرى من سلسلة الأخطاء التي تسبب بها الذكاء الاصطناعي في أنظمة العدالة حول العالم.
وتحمّل محامي الدفاع ريشي ناثواني، الحاصل على لقب مستشار الملك القانوني المرموق، “المسؤولية الكاملة” عن تقديم معلومات غير صحيحة في المذكرات في قضية مراهق متهم بالقتل، وفقًا لوثائق المحكمة التي اطلعت عليها وكالة أسوشيتد برس يوم الجمعة.
وقال ناثواني للقاضي جيمس إليوت، الأربعاء الماضي، نيابةً عن فريق الدفاع: “نشعر بعميق الأسف والحرج لما حدث”.
تأخير القضية
تسببت الأخطاء الناتجة عن الذكاء الاصطناعي في تأخير مدته 24 ساعة للبت في قضية كان إليوت يأمل في إنهائها يوم الأربعاء. وقضى إليوت يوم الخميس ببراءة موكّل المحامي ناثواني، الذي لا يمكن الكشف عن هويته لكونه قاصرًا، من تهمة القتل بسبب ضعف عقلي.
وقال القاضي إليوت للمحامين يوم الخميس: “على الرغم من خطر التقليل من أهمية الأمر، فإن الطريقة التي تطورت بها هذه الأحداث غير مرضية”.
وأضاف: “إن قدرة المحكمة على الاعتماد على دقة المذكرات التي يقدمها المحامين أساسيةٌ لضمان سير العدالة على النحو اللازم”.
وتضمنت المذكرات المزيفة اقتباساتٍ مُلفّقة من خطابٍ أمام المجلس التشريعي للولاية، واستشهاداتٍ وهميةٍ للقضايا، يُزعم أنها من المحكمة العليا.
اكتشف شركاء إليوت هذه الأخطاء، حيث لم يتمكنوا من العثور على القضايا، وطلبوا من محامي الدفاع تقديم نسخٍ منها.
وأقرّ المحامون بأن الاستشهادات “غير موجودة” وأن المذكرة تحتوي على “اقتباساتٍ وهمية”، وفقًا لوثائق المحكمة.
وأوضح المحامون أنهم تحققوا من دقة الاستشهادات الأولية، وافترضوا خطأً أن الاستشهادات الأخرى ستكون صحيحةً أيضًا.
كما أُرسلت المذكرات إلى المدعي العام دانيال بورسيدو، الذي لم يتحقق من دقتها.
إرشادات لاستخدام الذكاء الاصطناعي
أشار القاضي إلى أن المحكمة العليا أصدرت العام الماضي إرشاداتٍ حول كيفية استخدام المحامين للذكاء الاصطناعي.
وقال إليوت: “من غير المقبول استخدام الذكاء الاصطناعي ما لم يتم التحقق من نتاج هذا الاستخدام بشكل مستقل وشامل”.
ولا تحدد وثائق المحكمة نظام الذكاء الاصطناعي التوليدي الذي يستخدمه المحامون.
حوادث متكررة
وفي قضية مماثلة في الولايات المتحدة عام 2023، فرض قاضٍ فيدرالي غراماتٍ قدرها 5000 دولار على محاميين وشركة محاماة بعد أن اتُهمت شركة ChatGPT بتقديمها بحثًا قانونيًا زائفًا في دعوى تتعلق بإصابة طيران.
وقال القاضي ب. كيفن كاستل إنهم تصرفوا بسوء نية. لكنه أشاد باعتذاراتهم والخطوات التصحيحية التي اتخذوها في تفسير سبب عدم ضرورة تشديد العقوبات لضمان عدم سماحهم أو سماح الآخرين مجددًا لأدوات الذكاء الاصطناعي بدفعهم إلى تقديم تاريخ قانوني زائف في حججهم.
وفي وقت لاحق من ذلك العام، استُشهد بمزيد من الأحكام القضائية الزائفة التي اخترعها الذكاء الاصطناعي في أوراق قانونية قدمها محامو مايكل كوهين، المحامي الشخصي السابق للرئيس الأمريكي دونالد ترامب. وتحمل كوهين اللوم، قائلاً إنه لم يدرك أن أداة غوغل التي كان يستخدمها للبحث القانوني كانت قادرة أيضًا على ما يسمى بهلوسة الذكاء الاصطناعي.
وفي شهر يوليو/ تموز الماضي، ألغى قاضيان أمريكيان أحكامًا فيدرالية بعد اكتشاف اعتماد المحامين على مذكرات صاغها الذكاء الاصطناعي تضمنت أدلة واقتباسات ملفقة وأخطاء جوهرية، ما أثار جدلًا حول مخاطر توظيف الذكاء الاصطناعي في الإجراءات القضائية.