همانطور که هوش مصنوعی (AI) همچنان مرزهای بیان خلاقانه و حل مسئله را پیش می‌ برد، نگرانی بسیاری را نیز به وجود می آورد مانند: ظهور توهم. نمونه ای از توهم زمانی است که هوش مصنوعی با اطمینان محتوایی را تولید می کند که با واقعیت همخوانی ندارد. مدل‌ های هوش مصنوعی با توانایی خود در تولید تصاویر، متون، موسیقی و غیره به‌ طور حیرت‌ انگیز، هیجان و هشدار را به یک اندازه افزایش داده‌ اند.

تظاهرات توهم به دلیل پیامدهای بالقوه آن توجه قابل توجهی را به خود جلب کرده است. به نویسندگان مقالاتی که وجود ندارند نسبت داده شده و موارد قانونی جعلی برای نام بردن تنها دو نمونه اخیر ذکر شده است. درک علل زمینه‌ ای این توهمات برای توسعه استراتژی‌ های موثر برای پیشگیری بسیار مهم است.

چه چیزی باعث توهم هوش مصنوعی می شود؟

دلایل زیادی وجود دارد که یک پلتفرم هوش مصنوعی ممکن است محتوای قانع کننده ای تولید کند که نادرست است. زیرا هوش مصنوعی فقط به اندازه مجموعه داده ای قدرتمند است که روی آن آموزش داده شده است. هر گونه نقص در این مجموعه داده ها، خواه حجم یا دامنه ناکافی داده، مغرضانه، حاوی نادرستی و محدودیت ها، بیش از حد تخصصی یا بسیار محدود از یک بازه زمانی، قدیمی باشد، در نهایت در خروجی آن نشان داده می شود. در نتیجه، هنگام تولید متن، مدل محتوایی تولید می‌ کند که تحت تأثیر این ناهماهنگی‌ ها است که گاهی اوقات نویز نامیده می‌ شود و منجر به توهم می‌ شود.

علاوه بر این، در حالی که به نظر می‌ رسد که هوش مصنوعی هوشمندانه به یک درخواست پاسخ می‌ دهد، مدل های هوش مصنوعی مبتنی بر تکنیک‌ های احتمالی هستند که رمز بعدی را پیش‌بینی می‌ کنند (یعنی کلمه یا کاراکتر بعدی در یک دنباله، با توجه به زمینه درخواست). به طور منطقی ارتباط برقرار نمی کند یا ایده های جدیدی ایجاد نمی کند، بلکه احتمال ظاهر شدن هر توکن را تخمین می زند. علاوه بر این که پاسخ‌ های دقیق را به خطر می‌ اندازد، پلتفرم های هوش مصنوعی اغلب برای گفتن “نمی دانم” ساخته نشده‌ اند، زمانی که فاقد اطلاعات کافی برای رسیدگی به درخواست است. در عوض، محتمل ترین پاسخ را بر اساس داده‌ های آموزشی خود تولید می‌ کند، خواه از نظر واقعی درست باشد یا نباشد.

توهم در هوش مصنوعی

پیشگیری از توهمات هوش مصنوعی

ظهور توهمات هوش مصنوعی به درستی نگرانی هایی را در مورد قابلیت اطمینان، اعتبار و پیامدهای بالقوه این خروجی های گمراه کننده ایجاد کرده است. با پیشرفت سریع این زمینه، پرداختن به چالش توهمات هوش مصنوعی و توسعه اقدامات موثر برای پیشگیری از آنها اهمیت فزاینده ای پیدا می کند. با تمرکز بر پیشگیری، خواهیم توانست از صحت و اعتبار مدل های هوش مصنوعی محافظت کنیم و آنها را قادر به ایجاد محتوایی مطابق با واقعیت کنیم.

یکی از استراتژی‌ های مؤثر برای کاهش توهمات هوش مصنوعی، اجرای گاردریل ها در مدل های مولد است. این نرده‌ های محافظ به‌ عنوان محدودیت‌ ها یا قوانینی عمل می‌ کنند که فرآیند تولید خروجی هوش مصنوعی را هدایت می‌ کنند و اطمینان می‌ دهند که محتوا در محدوده‌ های قابل قبول باقی می‌ ماند. با تعیین محدودیت‌ هایی برای محتوای تولید شده، مانند پایبندی به حقایق شناخته شده یا رعایت ملاحظات اخلاقی، می‌ توانیم احتمال توهم را به میزان قابل توجهی کاهش دهیم و نتایج دقیق‌ تر و قابل اعتمادتری به دست آوریم.

سه نوع نرده محافظ در دسترس توسعه دهندگان وجود دارد:

1. نرده های محافظ موضعی

این نوع محافظ می تواند هوش مصنوعی را از اظهار نظر در مورد موضوعات خاص باز دارد.

2. نرده های حفاظتی

این نوع محافظ تضمین می کند که هوش مصنوعی با اطلاعات دقیق پاسخ می‌ دهد، از زبان خاصی اجتناب می‌ کند و خود را به منابع قابل اعتماد محدود می‌ کند.

3. نرده های امنیتی

این نوع محافظ نیز اتصالات را به برنامه‌ ها و سرویس‌ های شخص ثالث محدود می‌ کند که می‌ توانند داده‌ های نادرست، گمراه کننده یا مضر را معرفی کنند.

نظارت انسانی بر هوش مصنوعی جهت چیشگیری از توهم

یکی دیگر از رویکردهای کلیدی برای جلوگیری از توهمات هوش مصنوعی شامل نظارت انسانی است. داشتن “نظارت انسانی” به دخالت انسان در مداخله، نظارت یا تصمیم گیری در مراحل مختلف فرآیند هوش مصنوعی اشاره دارد. اهمیت قضاوت انسانی، تخصص و درک زمینه ای در ارتباط با سیستم های هوش مصنوعی را تصدیق می کند. در زمینه توهمات هوش مصنوعی، وجود انسان در حلقه به معنای ترکیب انسان هایی است که می توانند محتوای تولید شده را برای دقت و انسجام بررسی و ارزیابی کنند. آنها بازخورد ارائه می کنند، خروجی های توهم یا گمراه کننده بالقوه را شناسایی می کنند و اصلاحات یا تنظیمات لازم را برای اطمینان از همسویی محتوای تولید شده با واقعیت عینی انجام می دهند.

اعتبارسنجی مدل منظم و نظارت مستمر نیز برای کاهش توهمات هوش مصنوعی ضروری است. تنظیم دقیق مدل مولد از طریق فرآیندهای آزمایش و اعتبار سنجی می تواند کاستی ها یا سوگیری های بالقوه ای را که می تواند منجر به خروجی های توهم شود، شناسایی و برطرف کند. با نظارت مداوم بر عملکرد مدل و تجزیه و تحلیل محتوای تولید شده آن، می‌ توانیم هر گونه الگوی در حال ظهور را شناسایی و بررسی کنیم و به سرعت در پارامترها و فرآیندهای آموزشی مدل مداخله و اصلاح کنیم.

برای افزایش قابلیت اطمینان و دقت مدل های هوش مصنوعی، سازمان‌ ها باید متخصصانی با تخصص حوزه را برای آموزش این سیستم‌ ها استخدام کنند. این متخصصان درک عمیقی از موضوع دارند و اطمینان می‌ دهند که داده‌ ها و مدل‌ های آموزشی به‌ دقت تفاوت‌ های ظریف دامنه هدف را به تصویر می‌ کشند. به عنوان مثال، یک مدل هوش مصنوعی که برای نوشتن مقالات خبری آموزش می بیند، نیاز به یک متخصص با تخصص در حوزه روزنامه نگاری دارد تا پایگاه داده متنوع و قابل اعتمادی از مقالات خبری با کیفیت بالا در موضوعات مختلف را از منابع مورد اعتماد تهیه کند. سپس، متخصص مدل هوش مصنوعی را به‌ خوبی تنظیم می‌ کند و مجموعه داده‌ ها، الگوهای رایج، سبک‌ های نوشتاری و سایر عناصری که مقاله‌ های معتبر را تعریف می‌ کنند، تجزیه و تحلیل می‌ کند. در طول آموزش، متخصص در صورت بروز توهمات یا عدم دقت بالقوه مداخله می کند.

توهم هوش مصنوعی

ظهور مهندسی سریع

کاربران نهایی نیز نقشی در شکل‌ دهی به خروجی‌ های مدل‌ های هوش مصنوعی از طریق اعلان‌ های وارد شده به موتور هوش مصنوعی دارند. از آنجایی که سازمان‌ ها اهمیت دستورالعمل‌ های تنظیم دقیق را برای دستیابی به نتایج دلخواه خود تشخیص می‌ دهند، تقاضا برای افراد دارای تخصص تخصصی در مهندسی سریع و درک اینکه چه سؤالاتی باید از پلتفرم‌ های هوش مصنوعی بپرسند تا پاسخ مورد نظر خود را دریافت کنند، افزایش یافته است. بر اساس مقاله ای که در سایت WorkLife و در ماه مه منتشر شد، “بر اساس بیانیه ایمیلی، در شبکه کسب و کار Linkedin، پروفایل های اعضا لیست مهارت های بات مکالمه ChatGPT، مهندسی سریع، ساخت سریع و هوش مصنوعی 55 درصد از ژانویه تا فوریه و 71 درصد از فوریه تا مارس رشد کردند.

شکی نیست که هوش مصنوعی ابزار قدرتمندی است که شیوه زندگی و کار ما انسان ها را تغییر می دهد. با این حال، برای استفاده از پتانسیل کامل خود، باید به دقت پاسخ دهد و از محتوای مضر عاری باشد. برای تقویت اعتماد و وفاداری مصرف کننده، برندها باید از طریق اجرای سیاست‌ ها و حفاظ‌ ها، اطمینان از نظارت مستمر و اعتبارسنجی سیستم‌ های هوش مصنوعی، استفاده از مهندسین سریع برای اطمینان از نتایج دقیق و در جریان نگه داشتن انسان‌ ها در طول فرآیند، به دنبال راه‌ هایی برای کاهش تمایل هوش مصنوعی به توهم باشند.