۱.۰ مقدمه: پارادایم نوین در ارائه خدمات حقوقی
نفوذ سریع هوش مصنوعی (AI)، و بهویژه هوش مصنوعی مولد، در حال تغییر بنیادین حرفه وکالت و ارائه خدمات حقوقی است. این فناوری که زمانی در حوزه نظریات آیندهنگرانه قرار داشت، اکنون به سرعت در حال گسترش در بطن فعالیتهای حقوقی است. در چنین شرایطی، تدوین یک چارچوب حاکمیتی داخلی برای استفاده از این ابزارها دیگر یک انتخاب نیست، بلکه یک ضرورت حرفهای برای حفظ صلاحیت، رعایت اصول اخلاقی و ارائه خدمات با کیفیت به موکلان است. ممنوعیت مطلق استفاده از هوش مصنوعی در یک موسسه حقوقی، راهکاری ناکارآمد و غیرعملی است که میتواند منجر به کاهش رقابتپذیری و سوق دادن وکلا به استفاده پنهانی از این ابزارها شود.
هوش مصنوعی در حال حاضر به طور گسترده در پلتفرمهای تحقیقات حقوقی، برنامههای بازبینی اسناد و سیستمهای پیشرفته کشف الکترونیکی (e-discovery) ادغام شده است. این ابزارها نباید به عنوان جایگزینی برای تحلیل و استدلال حقوقی که توسط وکلای مجرب ارائه میشود، در نظر گرفته شوند؛ بلکه باید به عنوان ابزاری قدرتمند برای افزایش کارایی و کیفیت خدمات حقوقی به کار روند. این سند به عنوان یک راهنمای عملی برای متخصصان حقوقی تدوین شده است تا بتوانند با درک عمیق از مزایا و خطرات این فناوری، به صورت مسئولانه از آن بهرهبرداری کنند.
برای درک کامل ملاحظات اخلاقی و الزامات انطباقی مرتبط با هوش مصنوعی، ضروری است که متخصصان حقوقی با مفاهیم فنی اساسی این حوزه آشنا شوند. درک این مبانی، واژگان و چارچوب لازم را برای ارزیابی ریسکها و اتخاذ تصمیمات آگاهانه فراهم میآورد که در بخش بعدی به آن پرداخته خواهد شد.
۲.۰ مبانی هوش مصنوعی برای متخصصان حقوقی: از یادگیری ماشین تا مدلهای جعبه سیاه
درک مفاهیم کلیدی فنی هوش مصنوعی برای ارزیابی صحیح ریسکهای حقوقی و اخلاقی ضروری است. این بخش، تعاریف و مفاهیم پایهای را به زبانی ساده برای متخصصان حقوقی ارائه میدهد تا واژگان لازم برای بحثهای بعدی در مورد تعهدات حرفهای فراهم شود.
با استفاده از این مفاهیم، میتوان تمایز میان انواع مختلف فناوریهای هوش مصنوعی و محدودیتهای ذاتی آنها را درک کرد:
هوش مصنوعی (Artificial Intelligence – AI): هوش مصنوعی یک مفهوم کلی و چترواژه برای توصیف سیستمهای کامپیوتری است که وظایفی را انجام میدهند که به طور معمول به هوش انسانی نیاز دارند. این تعریف گسترده شامل هر سیستمی میشود که با تحلیل محیط خود و با درجهای از استقلال، برای رسیدن به اهداف مشخصی اقدام میکند؛ از یک آسانسور هوشمند گرفته تا رباتهای پیشرفته.
یادگیری ماشین (Machine Learning – ML): یادگیری ماشین زیرمجموعهای از هوش مصنوعی است که بر توسعه سیستمهایی متمرکز است که به جای برنامهریزی صریح برای هر وظیفه، از دادهها برای یادگیری و بهبود عملکرد خود استفاده میکنند. این سیستمها الگوها را از مجموعه دادههای آموزشی استخراج کرده و از آنها برای تعمیم دانش خود به موقعیتهای جدیدی که قبلاً با آن مواجه نشدهاند، بهره میبرند.
هوش مصنوعی مولد (Generative AI): این فناوری نوعی از هوش مصنوعی است که قادر به تولید محتوای جدید مانند متن، تصویر، صدا یا ویدئو میباشد. ابزارهایی مانند ChatGPT نمونهای از هوش مصنوعی مولد هستند که از مدلهای زبان بزرگ (LLM) برای درک و تولید متن به شیوهای شبیه به انسان استفاده میکنند.
پدیده “توهم” (Hallucination)
یکی از مهمترین محدودیتهای هوش مصنوعی مولد، پدیده “توهم” است. این اصطلاح به تولید اطلاعات نادرست یا ساختگی توسط مدل اشاره دارد که با اطمینان کامل ارائه میشود. این یک خطای سیستمی نیست، بلکه نتیجه مستقیم نحوه عملکرد مدل است که برای “ساختن” پاسخهای متنی محتمل طراحی شده، نه “جستجوی” اطلاعات دقیق. پرونده حقوقی مشهور در نیویورک که در آن وکلا به موارد حقوقی کاملاً ساختگی تولید شده توسط ChatGPT استناد کردند و متعاقباً توسط دادگاه جریمه شدند، نمونه بارزی از این خطر است. این پدیده به روشنی نشان میدهد که مسئولیت نهایی راستیآزمایی و تأیید صحت هرگونه خروجی تولید شده توسط هوش مصنوعی بر عهده کاربر انسانی (وکیل) است.
مدلهای “مبهم” یا “جعبه سیاه” (Opaque / Black Box)
بسیاری از مدلهای پیشرفته هوش مصنوعی، بهویژه آنهایی که بر پایه شبکههای عصبی عمیق (Deep Neural Networks – DNNs) ساخته شدهاند، به عنوان مدلهای “جعبه سیاه” شناخته میشوند. این اصطلاح به این معناست که فرآیند تصمیمگیری داخلی این مدلها بسیار پیچیده و برای انسان غیرقابل درک است. به عبارت دیگر، توضیح اینکه چرا یک مدل خاص به یک خروجی مشخص رسیده، دشوار یا حتی غیرممکن است. این عدم شفافیت، چالشهای جدی در زمینه پاسخگویی، حسابرسی و ایجاد اعتماد ایجاد میکند و ضرورت نظارت دقیق انسانی را دوچندان میسازد.
با درک این مبانی، میتوانیم به بررسی دقیقتر پیامدهای اخلاقی استفاده از این فناوری بپردازیم که اولین و مهمترین آنها، تعهد به حفظ اسرار و اطلاعات محرمانه موکل است.
۳.۰ ارکان اصلی اخلاق حرفهای و انطباق در عصر هوش مصنوعی
استفاده از هوش مصنوعی در امور حقوقی، چهار حوزه اصلی از تعهدات حرفهای وکلا را به طور مستقیم تحت تأثیر قرار میدهد و نیازمند بازنگری دقیق در رویکردهای سنتی است. این چهار رکن عبارتند از: حفظ محرمانگی اطلاعات موکل، تعهد به انصاف و عدم تبعیض، مسئولیتپذیری و پاسخگویی نهایی، و شفافیت و الزامات افشا.
۳.۱ حفظ محرمانگی اطلاعات موکل
شاید بزرگترین و مهمترین مانع در پیادهسازی گسترده هوش مصنوعی در حرفه وکالت، تعهد خدشهناپذیر به حفظ محرمانگی اطلاعات موکل باشد. بر اساس قاعده ۱.۶ از “قواعد نمونه رفتار حرفهای” (Model Rule of Professional Conduct 1.6)، وکلا موظفند از افشای اطلاعات مربوط به وکالت یک موکل جلوگیری کنند. وارد کردن هرگونه اطلاعات موکل در یک سیستم هوش مصنوعی، بهویژه ابزارهای عمومی که توسط یک فروشنده شخص ثالث نگهداری میشوند، مصداق “افشای اطلاعات” (disclosure) است.
این افشا به سختی میتواند تحت مجوز “اختیار ضمنی برای پیشبرد وکالت” قرار گیرد، زیرا ماهیت و ریسکهای آن فراتر از ابزارهای سنتی است. بنابراین، چنین اقدامی نیازمند “رضایت آگاهانه” (informed consent) صریح از سوی موکل است. این رضایت باید به طور شفاف موارد زیر را در بر گیرد:
توضیح اینکه از ابزارهای هوش مصنوعی برای کمک به پرونده استفاده خواهد شد.
شرح ریسکهای بالقوه، از جمله احتمال استفاده از دادههای ورودی برای آموزش مدل در آینده.
نحوه استفاده از ابزار و اقداماتی که برای حفاظت از اطلاعات انجام میشود.
استفاده از ابزارهای عمومی هوش مصنوعی مانند نسخههای اولیه ChatGPT، ریسکهای قابل توجهی را به همراه داشت. این ابزارها در ابتدا فاقد هرگونه حفاظت از حریم خصوصی بودند و دادههای ورودی کاربران را بدون محدودیت برای آموزش مدلهای خود به کار میبردند. اگرچه بهروزرسانیهای بعدی گزینههایی برای مکالمات خصوصی فراهم کردهاند که ادعا میشود پس از ۳۰ روز حذف میشوند، اما یک ریسک باقیمانده و حیاتی وجود دارد: فقدان یک سیستم حسابرسی مستقل برای تضمین اینکه دادهها واقعاً و به طور کامل حذف شدهاند و در طول دوره نگهداری برای پاسخ به سایر کاربران استفاده نمیشوند. این عدم قطعیت، استفاده از چنین ابزارهایی را برای اطلاعات حساس موکل بسیار پرخطر میسازد.
علاوه بر تعهد به محرمانگی، اطمینان از اینکه خروجیهای هوش مصنوعی منجر به نتایج ناعادلانه نمیشود، یک مسئولیت اساسی دیگر برای وکلا است.
۳.۲ سوگیری الگوریتمی و تعهد به انصاف
سوگیری الگوریتمی زمانی رخ میدهد که یک سیستم هوش مصنوعی نتایجی تولید میکند که به طور سیستماتیک برای گروههای خاصی از افراد تبعیضآمیز است. این سوگیری میتواند اصول اخلاقی حرفهای و قوانین ضد تبعیض را نقض کند و به اعتماد عمومی به سیستم قضایی آسیب برساند. سه منبع اصلی برای سوگیری در هوش مصنوعی وجود دارد. ماهیت مبهم و «جعبه سیاه» بسیاری از این مدلها، شناسایی و حسابرسی این سه نوع سوگیری را دشوارتر میسازد و بر لزوم نظارت دقیق انسانی و استفاده از راهکارهای هوش مصنوعی توضیحپذیر (XAI) تأکید میکند.
دادههای آموزشی سوگیرانه: کیفیت خروجی یک مدل هوش مصنوعی مستقیماً به کیفیت دادههای ورودی آن بستگی دارد. اگر دادههای آموزشی نمایانگر نابرابریهای تاریخی یا فاقد تنوع کافی باشند، مدل نیز همان سوگیریها را یاد گرفته و تقویت خواهد کرد.
مثال: یک الگوریتم که صرفاً بر اساس قراردادهای حوزه فناوری آموزش دیده است، ممکن است در تحلیل و شناسایی بندهای کلیدی در یک قرارداد حوزه بهداشت و درمان دچار خطا شده و نتایج نادرستی ارائه دهد.
طراحی الگوریتم سوگیرانه: سوگیری میتواند در خود طراحی الگوریتم نیز نهفته باشد، به طوری که مدل به نفع یک گروه و به ضرر گروه دیگر عمل کند.
مثال: الگوریتمی که برای پیشبینی احتمال نکول وام طراحی شده، ممکن است به طور ناخواسته علیه اقلیتهایی که به طور سنتی از دسترسی به اعتبار محروم بودهاند، سوگیری داشته باشد، زیرا دادههای تاریخی موفقیت آنها را کمتر ثبت کرده است.
استفاده سوگیرانه از الگوریتم: حتی یک الگوریتم بیطرف نیز میتواند به شیوهای سوگیرانه مورد استفاده قرار گیرد.
مثال: استفاده از یک سیستم امتیازدهی اعتباری که صرفاً بر دادههای مالی سنتی (مانند سابقه کارت اعتباری) متکی است، میتواند افرادی را که از نظر مالی مسئولیتپذیر هستند اما سابقه اعتباری مرسوم ندارند، به طور ناعادلانه نادیده بگیرد.
یک نمونه واقعی از تبعیض الگوریتمی، شکایت کمیسیون فرصتهای شغلی برابر ایالات متحده (EEOC) علیه شرکت iTutorGroup بود. این شرکت متهم شد که نرمافزار استخدام آن به طور خودکار متقاضیان زن بالای ۵۵ سال و متقاضیان مرد بالای ۶۰ سال را رد میکرده است که مصداق بارز تبعیض سنی بود. این پروندهها نشان میدهند که وجود سوگیریهای پنهان، مسئولیت نظارت و پاسخگویی وکیل را برای حفاظت از حقوق موکلان و جلوگیری از آسیبهای ناعادلانه سنگینتر میکند.
۳.۳ مسئولیت حرفهای و پاسخگویی نهایی
یکی از اصول بنیادین اخلاق حرفهای این است که مسئولیت نهایی برای صحت، کیفیت و دقت کار حقوقی همچنان بر عهده وکیل است و این مسئولیت قابل واگذاری به یک ماشین نیست. استفاده از هوش مصنوعی این اصل را تغییر نمیدهد. وکلا بر اساس قواعد رفتار حرفهای موظف به حفظ صلاحیت (competence) هستند که این صلاحیت امروزه شامل درک “مزایا و ریسکهای مرتبط با فناوری مربوطه” نیز میشود.
مطالعه موردی پرونده Mata v. Avianca به عنوان یک هشدار جدی برای جامعه حقوقی عمل میکند. در این پرونده، وکلایی که به رویههای قضایی ساختگی تولید شده توسط ChatGPT در لایحه خود استناد کرده بودند، به پرداخت جریمه ۵,۰۰۰ دلاری محکوم شدند. قاضی Castel در حکم خود به نکتهای کلیدی اشاره کرد:
“هیچ ایراد ذاتی در استفاده از یک ابزار هوش مصنوعی قابل اعتماد برای کمک وجود ندارد. اما قوانین موجود، نقش دروازهبانی را بر عهده وکلا برای اطمینان از صحت اسنادشان قرار میدهد.”
این حکم تأکید میکند که هوش مصنوعی یک ابزار کمکی است، نه یک مرجع نهایی. مسئولیت یک وکیل در قبال خروجی یک سیستم هوش مصنوعی، مشابه مسئولیت او در قبال نظارت بر کار یک کارآموز یا وکیل تازهکار است. این امر مستلزم آن است که وکیل عملکرد، قابلیتها و بهویژه محدودیتهای ابزاری را که استفاده میکند، به خوبی درک کند و هر خروجی را با دقت بازبینی و راستیآزمایی نماید.
این مسئولیتپذیری با لزوم شفافیت در استفاده از این ابزارها تکمیل میشود، که در ادامه به آن پرداخته میشود.
۳.۴ شفافیت، توضیحپذیری و الزامات افشا
در بحث شفافیت، باید میان دو مفهوم تمایز قائل شد: شفافیت در عملکرد داخلی هوش مصنوعی و الزامات افشای استفاده از آن به دادگاه یا موکل. چالش “جعبه سیاه” که پیشتر به آن اشاره شد، به عدم توانایی درک فرآیند تصمیمگیری الگوریتمها اشاره دارد. این موضوع، اعتماد به خروجیها و توانایی راستیآزمایی آنها را دشوار میسازد.
برای مقابله با این چالش، مفهوم “هوش مصنوعی توضیحپذیر” (Explainable AI – XAI) مطرح شده است. هدف XAI ارائه مجموعهای از فرآیندها و روشهاست که به کاربران انسانی اجازه میدهد تا نتایج و خروجیهای ایجاد شده توسط مدلهای یادگیری ماشین را درک کرده و به آنها اعتماد کنند. برای مثال، یک سیستم XAI ممکن است به جای ارائه یک پاسخ نهایی، دلایل و عواملی را که در رسیدن به آن نتیجه بیشترین تأثیر را داشتهاند، نیز مشخص کند. این امر به وکیل اجازه میدهد تا منطق پشت تصمیم الگوریتم را ارزیابی کند.
از سوی دیگر، الزامات افشا به تعهد وکیل برای اطلاعرسانی در مورد استفاده از هوش مصنوعی در تهیه اسناد قضایی اشاره دارد. با توجه به ریسکهایی مانند “توهم”، برخی دادگاهها و قضات در حال تدوین قواعدی هستند که وکلا را ملزم میکند استفاده از هوش مصنوعی مولد را در تهیه لوایح و سایر اسناد تقدیمی به دادگاه افشا کنند. این شفافیت به دادگاه اجازه میدهد تا با آگاهی از ابزارهای مورد استفاده، دقت و صحت محتوای ارائه شده را با حساسیت بیشتری ارزیابی کند.
تحلیل این ارکان چهارگانه اخلاقی، زمینه را برای تدوین یک چارچوب عملی فراهم میکند تا موسسات حقوقی بتوانند به شیوهای مسئولانه از این فناوری بهرهمند شوند.
۴.۰ راهنمای عملی: تدوین چارچوب حاکمیتی داخلی برای استفاده از هوش مصنوعی
تحلیلهای پیشین نشان میدهد که پذیرش مسئولانه هوش مصنوعی نیازمند یک رویکرد فعال و پیشگیرانه است. هدف این بخش، تبدیل ملاحظات اخلاقی به یک نقشه راه عملی برای موسسات حقوقی و دپارتمانهای حقوقی شرکتها جهت تدوین یک خط مشی حاکمیتی داخلی است. چنین خط مشیای باید شامل مؤلفههای کلیدی زیر باشد:
۱.ارزیابی و انتخاب ابزار:
دستورالعمل: پیش از بهکارگیری هر ابزار هوش مصنوعی، باید تحقیقات لازم (due diligence) در مورد فروشنده آن انجام شود. این تحقیقات باید شامل بررسی دقیق اقدامات امنیتی، سیاستهای حفظ حریم خصوصی، پروتکلهای رمزنگاری دادهها و سیاستهای مربوط به حذف و پاکسازی اطلاعات باشد. اولویت باید با ابزارهایی باشد که به طور خاص برای حوزه حقوقی طراحی شدهاند و تعهدات روشنی در قبال محرمانگی دادهها ارائه میدهند.
۲.حفاظت از اطلاعات محرمانه:
دستورالعمل: یک اصل راهنما باید “به حداقل رساندن دادهها” باشد. وکلا باید آموزش ببینند که فقط اطلاعات ضروری و غیرقابل شناسایی را در سیستم وارد کنند. باید از وارد کردن هرگونه شناسه شخصی، اطلاعات مالی حساس یا جزئیات محرمانهای که برای دریافت پاسخ از هوش مصنوعی ضروری نیست، اکیداً خودداری شود.
۳.اخذ رضایت آگاهانه از موکل:
دستورالعمل: قراردادهای وکالت باید بندی شفاف در مورد استفاده از فناوریهای نوین، از جمله هوش مصنوعی، داشته باشند. این بند باید به زبان ساده توضیح دهد که ممکن است از ابزارهای هوش مصنوعی برای افزایش کارایی در اموری مانند تحقیقات یا تهیه پیشنویس اسناد استفاده شود و رضایت موکل را برای این امر جلب نماید. یک بند نمونه میتواند به این صورت باشد:
۴.نظارت انسانی و راستیآزمایی:
دستورالعمل: خط مشی باید به صراحت الزام کند که تمامی خروجیهای تولید شده توسط هوش مصنوعی، بدون استثنا، باید توسط یک وکیل واجد شرایط به دقت بازبینی، ویرایش و از نظر صحت حقوقی و واقعی تأیید شود. این اصل بهویژه در تحقیقات حقوقی، استناد به رویههای قضایی و تهیه پیشنویس اسناد قضایی حیاتی است. مسئولیت نهایی همواره بر عهده وکیل است.
۵.آموزش مستمر:
دستورالعمل: موسسه باید متعهد به برگزاری دورههای آموزشی منظم برای تمامی وکلا و کارکنان حقوقی شود. این آموزشها باید قابلیتها، محدودیتها (مانند توهم و سوگیری) و ریسکهای اخلاقی مرتبط با ابزارهای هوش مصنوعی مورد تایید موسسه را پوشش دهد تا اطمینان حاصل شود که همه کاربران با آگاهی و مسئولیتپذیری از این فناوری استفاده میکنند.
۵.۰ نتیجهگیری: هوش مصنوعی به عنوان ابزار، نه جایگزین قضاوت حقوقی
تحلیل حاضر نشان میدهد که هوش مصنوعی در حال تبدیل شدن به یک نیروی دگرگونساز در حرفه وکالت است. این فناوری پتانسیل عظیمی برای افزایش کارایی، سرعت بخشیدن به وظایف تکراری و ارائه تحلیلهای دادهمحور دارد. با این حال، پذیرش آن با تعهدات اخلاقی بنیادینی در زمینههای محرمانگی، انصاف، مسئولیتپذیری و شفافیت گره خورده است. خطراتی مانند افشای ناخواسته اطلاعات موکل، تقویت سوگیریهای اجتماعی از طریق الگوریتمها و استناد به اطلاعات ساختگی (توهم)، چالشهایی جدی هستند که نیازمند نظارت و کنترل دقیق انسانی میباشند.
باید تأکید کرد که هوش مصنوعی یک ابزار توانمندساز است، اما هرگز جایگزین قضاوت، صلاحدید، و مسئولیت اخلاقی یک وکیل نخواهد شد. پیچیدگیهای استراتژی حقوقی، درک ظرایف انسانی و تعهد به عدالت، همچنان در حوزه انحصاری متخصصان حقوقی باقی میماند.
در نهایت، آینده حرفه وکالت نه در تقابل با هوش مصنوعی، بلکه در همزیستی هوشمندانه با آن رقم میخورد. موسسات حقوقی که با تدوین چارچوبهای حاکمیتی دقیق، آموزش مستمر و تأکید بر نظارت انسانی، این فناوری را به صورت مسئولانه به کار میگیرند، نه تنها از تعهدات اخلاقی خود محافظت میکنند، بلکه خود را برای موفقیت در چشمانداز حقوقی آینده مجهز میسازند. پذیرش مسئولانه، کلید بهرهبرداری از مزایای هوش مصنوعی و مدیریت ریسکهای آن است.
دیدگاه شما