هوش مصنوعی اکنون در حوزه ارائه مشاوره حقوقی وارد شده است. مدل‌های زبانی پیشرفته مانند ChatGPT و سامانه‌های مشابه، شروع به پاسخ‌گویی سریع به سؤالات پیچیده حقوقی کرده‌اند. پژوهشی که در سال 2024 توسط «آیک اشنایدرز»، «تینا سی‌بروک» و دیگر پژوهشگران منتشر شده، نشان می‌دهد که بسیاری از افراد مایل‌اند به توصیه‌های حقوقی ارائه‌شده توسط هوش مصنوعی عمل کنند و گاه حتی بیش از مشاوره‌های ارائه‌شده توسط وکلای واقعی به آن اعتماد می‌کنند.

در این تحقیق، سه آزمایش با استفاده از مسائل واقعی در حوزه قوانین راهنمایی و رانندگی، شهرسازی و مالکیت املاک انجام شد.

در دو آزمایش نخست، الگوی مشخصی مشاهده شد: زمانی که افراد نمی‌دانستند مشاوره حقوقی توسط چه کسی نوشته شده، تمایل بیشتری به دنبال‌کردن پیشنهادهای هوش مصنوعی داشتند تا توصیه‌های وکیل. این نتایج، حتی با تغییر گروه شرکت‌کنندگان در آزمایش دوم نیز ثابت ماند. این یعنی اگر منبع مشاوره مشخص نباشد، بسیاری از مردم با پاسخ‌هایی که «قاطع و مطمئن» به‌نظر می‌رسند — حتی اگر از سوی یک ماشین باشد — احساس راحتی می‌کنند و به آن اعتماد می‌ورزند.

چرا پاسخ‌های هوش مصنوعی باورپذیرتر به نظر می‌رسند؟

یکی از دلایل این اعتماد، طبق یافته‌های پژوهش، سبک نوشتاری متفاوت هوش مصنوعی است. سامانه‌هایی مثل ChatGPT معمولاً به شکل مختصر و مستقیم می‌نویسند و مشاوره‌هایشان اغلب قاطعانه‌تر به نظر می‌رسد. در مقابل، وکلا معمولاً توضیحات بیشتری ارائه می‌دهند و از بیان نظرات قطعی پرهیز می‌کنند — احتمالاً به‌دلیل تبعات حقوقی احتمالی ناشی از ارائه مشاوره نادرست.

این تفاوت‌ها می‌تواند بر برداشت مخاطب تأثیر بگذارد؛ مخصوصاً اگر مخاطب به دنبال پاسخ سریع و روشن باشد.

آیا مردم می‌توانند تشخیص دهند مشاوره از طرف انسان است یا ماشین؟

برای افراد غیرمتخصص، تشخیص اینکه یک مشاوره حقوقی از سوی هوش مصنوعی ارائه شده یا وکیل، چندان ساده نیست. در آزمایش سوم، پژوهشگران از شرکت‌کنندگان خواستند تا تشخیص دهند هر پاسخ از سوی یک وکیل بوده یا هوش مصنوعی، بدون اینکه منبع را به آن‌ها بگویند.

نتیجه؟ دقت پاسخ‌دهی کمی بیشتر از حد تصادفی بود — حدود 59٪. این رقم تنها کمی بالاتر از پرتاب سکه (50٪) است و نشان می‌دهد که در بسیاری از موارد، سبک نوشتاری مطمئن و قاطع هوش مصنوعی می‌تواند افراد را فریب دهد و باورپذیر جلوه کند، حتی اگر پاسخ نادرست یا ساختگی باشد.

نکته جالب‌تر آن‌که برخی افراد ترجیح می‌دهند مشاوره‌ای دریافت کنند که حس «ماشینی و بی‌طرف بودن» داشته باشد — به‌ویژه اگر متن، لحنی محکم و با اطمینان داشته باشد. پژوهشگران تأکید می‌کنند که «اعتماد به مشاوره» صرفاً به منبع آن وابسته نیست، بلکه شیوه ارائه و حس القاشده نیز نقش مهمی ایفا می‌کند.

مشاوره حقوقی با هوش مصنوعی چه خطراتی دارد؟

دسترسی آسان به مشاوره‌های حقوقی تولیدشده توسط هوش مصنوعی، چالش‌های تازه‌ای را به‌همراه دارد. یکی از مشکلات مهم این است که مدل‌های زبانی گاهی اطلاعاتی کاملاً نادرست، ولی با لحنی قانع‌کننده تولید می‌کنند — مسئله‌ای که در زمینه حقوق می‌تواند پیامدهای جدی به‌دنبال داشته باشد.

بر اساس گزارش تیم پژوهشی، در کشور آمریکا مواردی وجود داشته که وکلا اسنادی را به دادگاه ارائه داده‌اند که پر از ارجاعات و پرونده‌های ساختگی تولیدشده توسط هوش مصنوعی بوده‌اند. در یکی از پرونده‌ها در ایالت کالیفرنیا، قاضی دو مؤسسه حقوقی را به پرداخت جریمه‌ای معادل 31 هزار دلار محکوم کرد، چرا که گزارش آن‌ها به منابعی استناد کرده بود که اساساً وجود خارجی نداشتند.

این مشکل از آنجا ناشی می‌شود که ابزارهای هوش مصنوعی طوری طراحی شده‌اند که آگاه به‌نظر برسند، حتی زمانی که نیستند. مخاطبان عادی معمولاً نمی‌دانند که کجا باید اطلاعات را زیر سؤال ببرند یا با یک وکیل واقعی مشورت کنند.

موضوع زمانی پیچیده‌تر می‌شود که فرد، توصیه‌ای را که با اطمینان بیان شده، بی‌چون‌و‌چرا بپذیرد. حتی ساده‌ترین مسائل حقوقی نیز می‌توانند به‌سرعت پیچیده شوند — به‌خصوص زمانی که اطلاعات ارائه‌شده نادرست یا برگرفته از «توهمات» هوش مصنوعی باشد. اگر چنین اشتباهاتی به سطح دادگاه برسد، ممکن است باعث تأخیر در دادرسی شده و مشکلات بزرگ‌تری را برای همه طرف‌ها به‌وجود آورد.

چه راهکارهایی برای ایمن‌تر شدن مشاوره حقوقی با هوش مصنوعی مطرح شده‌اند؟

افزایش استفاده از هوش مصنوعی در حوزه‌های حساس از جمله حقوق، باعث شده تا کارشناسان خواستار مقررات‌گذاری بهتر و افزایش آگاهی عمومی شوند. یکی از راهکارهای قابل‌اتکا، مقرراتی مشابه قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) است که الزام می‌کند متن‌های تولیدشده توسط هوش مصنوعی باید به‌صورت مشخص علامت‌گذاری شوند تا ماشین‌ها بتوانند آن را تشخیص دهند.

با این حال، «اشنایدرز» و تیم پژوهشی‌اش یادآور می‌شوند که چنین علامت‌گذاری‌هایی الزاماً به کاربران عادی کمکی نمی‌کند؛ چرا که بسیاری از افراد به این نشانه‌ها توجهی ندارند.

این مطالعه تأکید می‌کند که افزایش سواد دیجیتال و آگاهی عمومی درباره هوش مصنوعی بخشی کلیدی از راه‌حل است. مردم باید یاد بگیرند که در مواجهه با اطلاعات، پرسشگر باشند، در مورد منبع داده‌ها با دقت فکر کنند و مشاوره‌های حقوقی را همیشه با یک متخصص انسانی تطبیق دهند. تنها استفاده از پیام‌های هشدار کوتاه – مانند آنچه در ChatGPT یا Google Gemini نمایش داده می‌شود – کافی نیست، چرا که اغلب کاربران چنین هشدارهایی را نادیده می‌گیرند.

افزایش آگاهی درباره هوش مصنوعی و آموزش مزایا و محدودیت‌های آن به مردم، به‌ویژه با پیشرفت ابزارهایی که «بیش‌ازپیش شبیه انسان حرف می‌زنند»، اهمیت بیشتری پیدا می‌کند. اقدامات عملی می‌تواند شامل آموزش مهارت‌های تفکر نقادانه در مدارس و محل‌های کار، تشویق کاربران به بررسی اطلاعات کلیدی و راه‌اندازی کمپین‌های عمومی برای آگاه‌سازی گروه‌هایی باشد که بیشتر احتمال دارد به مشاوره‌های هوش مصنوعی اعتماد کنند، بدون آنکه صحت آن را بررسی کنند.

آیا هوش مصنوعی در نهایت جای مشاور حقوقی را خواهد گرفت؟

در حال حاضر، بسیاری از مؤسسات حقوقی از هوش مصنوعی برای تحقیق، خلاصه‌سازی اسناد و حتی پاسخ‌گویی اولیه به سؤالات استفاده می‌کنند. از سوی دیگر، تعداد بیشتری از افراد نیز در حال تجربه استفاده شخصی از این ابزارها برای دریافت مشاوره حقوقی هستند.

طبق این پژوهش، حدود 45٪ از شرکت‌کنندگان گفته‌اند که احتمالاً در آینده از هوش مصنوعی برای دریافت کمک حقوقی استفاده خواهند کرد. اما پژوهشگران در کنار این عدد، به یک نکته بسیار مهم اشاره می‌کنند: اگر استفاده از ماشین‌ها بدون بررسی دقیق و نظارت انسانی انجام شود، ممکن است مشکلاتی جدی‌تر از آنچه تصور می‌شود، ایجاد کند.

این مطالعه در پایان تأکید می‌کند که مشکل اصلی خودِ فناوری نیست، بلکه شیوه استفاده انسان‌ها از آن است. قوانینی که استفاده را مدیریت کنند، آموزش عمومی، و نظارت حرفه‌ای، بسیار مهم‌تر از به‌روزرسانی بعدی هر چت‌باتی هستند.

در حال حاضر، امن‌ترین رویکرد آن است که از هوش مصنوعی به‌عنوان ابزاری کمکی برای شروع کار یا جمع‌آوری ایده‌ها استفاده شود — نه به‌عنوان جایگزینی کامل برای مشاوره حقوقی واقعی.