هوش مصنوعی اکنون در حوزه ارائه مشاوره حقوقی وارد شده است. مدلهای زبانی پیشرفته مانند ChatGPT و سامانههای مشابه، شروع به پاسخگویی سریع به سؤالات پیچیده حقوقی کردهاند. پژوهشی که در سال 2024 توسط «آیک اشنایدرز»، «تینا سیبروک» و دیگر پژوهشگران منتشر شده، نشان میدهد که بسیاری از افراد مایلاند به توصیههای حقوقی ارائهشده توسط هوش مصنوعی عمل کنند و گاه حتی بیش از مشاورههای ارائهشده توسط وکلای واقعی به آن اعتماد میکنند.
در این تحقیق، سه آزمایش با استفاده از مسائل واقعی در حوزه قوانین راهنمایی و رانندگی، شهرسازی و مالکیت املاک انجام شد.
در دو آزمایش نخست، الگوی مشخصی مشاهده شد: زمانی که افراد نمیدانستند مشاوره حقوقی توسط چه کسی نوشته شده، تمایل بیشتری به دنبالکردن پیشنهادهای هوش مصنوعی داشتند تا توصیههای وکیل. این نتایج، حتی با تغییر گروه شرکتکنندگان در آزمایش دوم نیز ثابت ماند. این یعنی اگر منبع مشاوره مشخص نباشد، بسیاری از مردم با پاسخهایی که «قاطع و مطمئن» بهنظر میرسند — حتی اگر از سوی یک ماشین باشد — احساس راحتی میکنند و به آن اعتماد میورزند.
چرا پاسخهای هوش مصنوعی باورپذیرتر به نظر میرسند؟
یکی از دلایل این اعتماد، طبق یافتههای پژوهش، سبک نوشتاری متفاوت هوش مصنوعی است. سامانههایی مثل ChatGPT معمولاً به شکل مختصر و مستقیم مینویسند و مشاورههایشان اغلب قاطعانهتر به نظر میرسد. در مقابل، وکلا معمولاً توضیحات بیشتری ارائه میدهند و از بیان نظرات قطعی پرهیز میکنند — احتمالاً بهدلیل تبعات حقوقی احتمالی ناشی از ارائه مشاوره نادرست.
این تفاوتها میتواند بر برداشت مخاطب تأثیر بگذارد؛ مخصوصاً اگر مخاطب به دنبال پاسخ سریع و روشن باشد.
آیا مردم میتوانند تشخیص دهند مشاوره از طرف انسان است یا ماشین؟
برای افراد غیرمتخصص، تشخیص اینکه یک مشاوره حقوقی از سوی هوش مصنوعی ارائه شده یا وکیل، چندان ساده نیست. در آزمایش سوم، پژوهشگران از شرکتکنندگان خواستند تا تشخیص دهند هر پاسخ از سوی یک وکیل بوده یا هوش مصنوعی، بدون اینکه منبع را به آنها بگویند.
نتیجه؟ دقت پاسخدهی کمی بیشتر از حد تصادفی بود — حدود 59٪. این رقم تنها کمی بالاتر از پرتاب سکه (50٪) است و نشان میدهد که در بسیاری از موارد، سبک نوشتاری مطمئن و قاطع هوش مصنوعی میتواند افراد را فریب دهد و باورپذیر جلوه کند، حتی اگر پاسخ نادرست یا ساختگی باشد.
نکته جالبتر آنکه برخی افراد ترجیح میدهند مشاورهای دریافت کنند که حس «ماشینی و بیطرف بودن» داشته باشد — بهویژه اگر متن، لحنی محکم و با اطمینان داشته باشد. پژوهشگران تأکید میکنند که «اعتماد به مشاوره» صرفاً به منبع آن وابسته نیست، بلکه شیوه ارائه و حس القاشده نیز نقش مهمی ایفا میکند.
مشاوره حقوقی با هوش مصنوعی چه خطراتی دارد؟
دسترسی آسان به مشاورههای حقوقی تولیدشده توسط هوش مصنوعی، چالشهای تازهای را بههمراه دارد. یکی از مشکلات مهم این است که مدلهای زبانی گاهی اطلاعاتی کاملاً نادرست، ولی با لحنی قانعکننده تولید میکنند — مسئلهای که در زمینه حقوق میتواند پیامدهای جدی بهدنبال داشته باشد.
بر اساس گزارش تیم پژوهشی، در کشور آمریکا مواردی وجود داشته که وکلا اسنادی را به دادگاه ارائه دادهاند که پر از ارجاعات و پروندههای ساختگی تولیدشده توسط هوش مصنوعی بودهاند. در یکی از پروندهها در ایالت کالیفرنیا، قاضی دو مؤسسه حقوقی را به پرداخت جریمهای معادل 31 هزار دلار محکوم کرد، چرا که گزارش آنها به منابعی استناد کرده بود که اساساً وجود خارجی نداشتند.
این مشکل از آنجا ناشی میشود که ابزارهای هوش مصنوعی طوری طراحی شدهاند که آگاه بهنظر برسند، حتی زمانی که نیستند. مخاطبان عادی معمولاً نمیدانند که کجا باید اطلاعات را زیر سؤال ببرند یا با یک وکیل واقعی مشورت کنند.
موضوع زمانی پیچیدهتر میشود که فرد، توصیهای را که با اطمینان بیان شده، بیچونوچرا بپذیرد. حتی سادهترین مسائل حقوقی نیز میتوانند بهسرعت پیچیده شوند — بهخصوص زمانی که اطلاعات ارائهشده نادرست یا برگرفته از «توهمات» هوش مصنوعی باشد. اگر چنین اشتباهاتی به سطح دادگاه برسد، ممکن است باعث تأخیر در دادرسی شده و مشکلات بزرگتری را برای همه طرفها بهوجود آورد.
چه راهکارهایی برای ایمنتر شدن مشاوره حقوقی با هوش مصنوعی مطرح شدهاند؟
افزایش استفاده از هوش مصنوعی در حوزههای حساس از جمله حقوق، باعث شده تا کارشناسان خواستار مقرراتگذاری بهتر و افزایش آگاهی عمومی شوند. یکی از راهکارهای قابلاتکا، مقرراتی مشابه قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) است که الزام میکند متنهای تولیدشده توسط هوش مصنوعی باید بهصورت مشخص علامتگذاری شوند تا ماشینها بتوانند آن را تشخیص دهند.
با این حال، «اشنایدرز» و تیم پژوهشیاش یادآور میشوند که چنین علامتگذاریهایی الزاماً به کاربران عادی کمکی نمیکند؛ چرا که بسیاری از افراد به این نشانهها توجهی ندارند.
این مطالعه تأکید میکند که افزایش سواد دیجیتال و آگاهی عمومی درباره هوش مصنوعی بخشی کلیدی از راهحل است. مردم باید یاد بگیرند که در مواجهه با اطلاعات، پرسشگر باشند، در مورد منبع دادهها با دقت فکر کنند و مشاورههای حقوقی را همیشه با یک متخصص انسانی تطبیق دهند. تنها استفاده از پیامهای هشدار کوتاه – مانند آنچه در ChatGPT یا Google Gemini نمایش داده میشود – کافی نیست، چرا که اغلب کاربران چنین هشدارهایی را نادیده میگیرند.
افزایش آگاهی درباره هوش مصنوعی و آموزش مزایا و محدودیتهای آن به مردم، بهویژه با پیشرفت ابزارهایی که «بیشازپیش شبیه انسان حرف میزنند»، اهمیت بیشتری پیدا میکند. اقدامات عملی میتواند شامل آموزش مهارتهای تفکر نقادانه در مدارس و محلهای کار، تشویق کاربران به بررسی اطلاعات کلیدی و راهاندازی کمپینهای عمومی برای آگاهسازی گروههایی باشد که بیشتر احتمال دارد به مشاورههای هوش مصنوعی اعتماد کنند، بدون آنکه صحت آن را بررسی کنند.
آیا هوش مصنوعی در نهایت جای مشاور حقوقی را خواهد گرفت؟
در حال حاضر، بسیاری از مؤسسات حقوقی از هوش مصنوعی برای تحقیق، خلاصهسازی اسناد و حتی پاسخگویی اولیه به سؤالات استفاده میکنند. از سوی دیگر، تعداد بیشتری از افراد نیز در حال تجربه استفاده شخصی از این ابزارها برای دریافت مشاوره حقوقی هستند.
طبق این پژوهش، حدود 45٪ از شرکتکنندگان گفتهاند که احتمالاً در آینده از هوش مصنوعی برای دریافت کمک حقوقی استفاده خواهند کرد. اما پژوهشگران در کنار این عدد، به یک نکته بسیار مهم اشاره میکنند: اگر استفاده از ماشینها بدون بررسی دقیق و نظارت انسانی انجام شود، ممکن است مشکلاتی جدیتر از آنچه تصور میشود، ایجاد کند.
این مطالعه در پایان تأکید میکند که مشکل اصلی خودِ فناوری نیست، بلکه شیوه استفاده انسانها از آن است. قوانینی که استفاده را مدیریت کنند، آموزش عمومی، و نظارت حرفهای، بسیار مهمتر از بهروزرسانی بعدی هر چتباتی هستند.
در حال حاضر، امنترین رویکرد آن است که از هوش مصنوعی بهعنوان ابزاری کمکی برای شروع کار یا جمعآوری ایدهها استفاده شود — نه بهعنوان جایگزینی کامل برای مشاوره حقوقی واقعی.