طالما أننا بحاجة إلى قضاة ومحامين في قاعات محاكمنا ، فقد يعتقد المرء أن مهنة المحاماة لديها بعض الوقت قبل أن تتعطل تمامًا بسبب ثورة الذكاء الاصطناعي.
طالما أننا بحاجة إلى قضاة ومحامين في قاعات محاكمنا ، فقد يعتقد المرء أن مهنة المحاماة لديها بعض الوقت قبل أن تتعطل تمامًا بسبب ثورة الذكاء الاصطناعي.
ما مدى خطأ هذا الافتراض.
في قاعة محكمة في نيويورك ، بدأ المحامون في البحث عن اليد العليا من خلال استخدام منصات الذكاء الاصطناعي لإجراء البحوث القانونية وإعداد ملخصات المحكمة. في حالة حديثة ، غطتها New York Times ، من الواضح أن ChatGPT ليست قادرة تمامًا بعد على أداء دور زميل مبتدئ.
في مقال بعنوان “هذا ما يحدث عندما يستخدم محاميك برنامج ChatGPT” ، يروي بنجامين وايزر قصة المدعي ، روبرتو ماتا (“السيد ماتا”) ، الذي رفع دعوى قضائية على شركة Avianca Airlines بعد أن صدمته عربة تقديم معدنية على ركبته أثناء رحلة من السلفادور إلى نيويورك في أغسطس 2019.
رفع السيد ماتا دعوى قضائية ضد شركة الطيران عبر محاميه في Levidow و Levidow و Oberman. ورداً على ذلك ، طلبت شركة Avianca رفض المطالبة ، بحجة أن السيد ماتا بدأ مطالبته بعد فوات الأوان.
رداً على ذلك ، قدم محامو السيد ماتا مذكرة قانونية إلى المحكمة ، تمت صياغتها بمساعدة ChatGPT ، بدعوى أن السيد ماتا يتمتع بموقف قانوني قوي لاستمرار دعواه. المشكلة هي أن الحالات المشار إليها في الملخص اخترعتها ChatGPT.
بعد فترة وجيزة من تقديم المذكرة ، أبلغت Avianca المحكمة أنها لا تستطيع تحديد موقع سلطة واحدة أو اقتباس مذكور في المذكرة. قدم محامو ماتا بعد ذلك خلاصة وافية للقضايا الفعلية المشار إليها في المذكرة ، ولكن تبين أن هذه القضايا أيضًا مزيفة.
وذلك عندما اعترف محامي ماتا ستيفن شوارتز باستخدام ChatGPT لإعداد المذكرة.
في إفادة قُدِّمَت إلى المحكمة ، قال شوارتز إنه “يأسف بشدة” لاستخدام المنصة لإعداد بحثه القانوني ، وأنه وجد أن موقع ChatGPT هو “مصدر كشف أنه غير موثوق به”.
في أمر صادر عن المحكمة يتناول موجز القضية الوهمي ، كتب القاضي ب. كيفين كاستل أن الموقف كان غير مسبوق من حيث تقديمه مع تقديم قانوني مليء “بقرارات قضائية مزيفة ، مع اقتباسات مزيفة واستشهادات داخلية زائفة”.
من حسن حظنا ، أجرى محامو القاضي Castel و Avianca مراجعة جادة للسوابق القضائية التي قدمها المدعي. إذا كان موجز ChatGPT قادرًا بطريقة ما على التسلل عبر الثغرات ، فسيتم ترك نظامنا القانوني بأكمله في حالة محفوفة بالمخاطر. سيتم استبدال السابقة بعد السابقة بقضايا ملفقة منشأة بواسطة الروبوت ولا تمثل بدقة المشكلات القانونية التي تتعامل معها محاكمنا.
لم يقتصر الأمر على فشل ChatGPT في قضية نيويورك هذه فحسب ، بل تسبب في إحراج خطير واحتمال تأديب مستقبلي للمحامين الذين استخدموه.
القانون ، في جوهره ، يقوم على أساس الناس. لديها ، ويجب أن تكون كذلك ، إلى الأبد ، أناس يمثلون الناس. يتم بناء سابقة من قبل الأطراف التي يتم الحكم عليها من قبل هيئة محلفين من أقرانهم أو قاضي يوازن بين الأدلة.
تخبرنا هذه القضية أن حماية محاكمنا من مخاطر الذكاء الاصطناعي التي لا رادع لها لها أهمية قصوى.
كما قلت الأسبوع الماضي ، فإن ChatGPT ليس محاميك!
محتوى هذه المقالة هو معلومات عامة فقط وليس نصيحة قانونية.
المصدر : مقال رأي – تورونتو صن
المزيد
1