بیل گیتس می گوید:

توسعه هوش مصنوعی به اندازه ایجاد ریزپردازنده، رایانه شخصی، اینترنت و تلفن همراه مهم است.

اگرچه فناوری هوش مصنوعی (AI) مدت زیادی است که وجود داشته است، اما اخیراً با بات های مکالمه ای همچون ChatGPT دسترسی گسترده ای به آنها صورت گرفته است. شاید به این دلیل است که تا به حال نتوانسته ایم با هوش مصنوعی به صورت مکالمه تعامل داشته باشیم و شاهد پاسخ هایی شبیه به انسان باشیم.

به یاد داشته باشید که:

هوش مصنوعی ابری خیرخواهانه و انتزاعی از قدرت رایانه نیست. ریشه در دنیای واقعی دارد و شامل پیامدهای دنیای واقعی می شود.

بیایید به برخی از خطرها و چالش های بالقوه ای که سازمان ها می توانند با ایجاد، استفاده یا تکیه بر فناوری های هوش مصنوعی تجربه کنند، نگاهی بیاندازیم.

1. صداقت و خلوص داده ها

یکی از بزرگترین چالش های هوش مصنوعی این است که رهبران سازمانی از داده هایی که در پشت آن قرار دارد، نحوه آموزش هوش مصنوعی یا نحوه رفتار آن در موقعیت های خاص درک کمی دارند یا اصلاً آن را درک نمی کنند. اینجاست که خطر این فناوری در کمین است. یعنی اعتماد، عدم اطمینان و ناتوانی در تأیید پاسخ های تولید شده توسط هوش مصنوعی.

فرض کنید مجموعه ای کوچکی از داده ها را در اختیار دارید و آن را در یک مدل هوش مصنوعی قرار می دهید و نتیجه مورد انتظار را می گیرید. اما اگر به هوش مصنوعی مجموعه از داده های بسیار بزرگتر (bigdata) و بهم ریخته تری بدهید چه؟ چگونه تشخیص خواهید داد که هوش مصنوعی اطلاعات صحیحی را به شما می دهد یا آماری نادرست تولید می کند؟ اگر از هوش مصنوعی برای تصمیم گیری در چند ثانیه استفاده می کنید، چگونه یکپارچگی آن را پیگیری می کنید؟ اگر سازمان ها خیلی عمیق وارد عمل شوند یا خیلی سریع به سمت استفاده از این نوع مدل های زبانی بزرگ بدون تشخیص خطرات حرکت کنند، ممکن است به نقطه ای برسند که بازگشت به گذشته دشوار شود.

2. درک متنی

عقل سلیم و درک زمینه ای اغلب به طور طبیعی برای انسان ها به وجود می آید. با این حال، هوش مصنوعی این نوع ویژگی ها را از خود نشان نمی دهد. به عنوان مثال، تصور کنید که یک راننده خودروی پلیس اورژانس را مشاهده می کند. حتی اگر دقیقاً این وسیله نقلیه ای است که راننده ممکن است قبلاً آن را ندیده باشد، راننده بلافاصله زمینه را درک یا تشخیص می دهد (بر اساس چراغ های چشمک زن وسیله نقلیه، نوع ماشین یا نحوه رانندگی آن) و واکنش غریزی به تسلیم شدن یا تسلیم شدن نشان می دهد.

اما هوش مصنوعی نمی تواند این کار را انجام دهد. اگر یک وسیله نقلیه خودران با موقعیت عجیبی روبرو شود که هرگز برای آن برنامه ریزی نشده است، احتمالاً متوقف می شود و منتظر می ماند تا سناریو خود به خود حل شود یا منتظر می ماند تا راننده کنترل را به دست بگیرد و تأیید کند که آیا ادامه کار ایمن است یا خیر. درک متنی یک جنبه بسیار مهم در هر نوع تصمیم گیری است و تا زمانی که به آن توجه نشود، هوش مصنوعی یک برنامه پرخطر برای پیاده سازی های خاص باقی خواهد ماند.

3. تعصبات و نگرانی های اخلاقی

برای اینکه الگوریتم های هوش مصنوعی کار کنند، باید بر روی مقادیر زیادی از مجموعه داده ها آموزش ببینند. اگر سوگیری های ذاتی در نحوه جمع آوری و تجزیه و تحلیل داده ها وجود داشته باشد، ممکن است منجر به اشتباه در قضاوت آنها شود.

به عنوان نمونه، در حال حاضر بحث هایی در مورد اینکه چگونه می توان هوش مصنوعی را به طور قابل تصوری در سیستم قضایی کشور آمریکا اعمال کرد، وجود دارد. این به معنای آموزش یک مدل هوش مصنوعی در تصمیمات دادگاه تاریخی است. اگر تصمیمات اتخاذ شده در گذشته مغرضانه بوده است، این بدان معناست که مدل نیز از همان سوگیری ها رنج خواهد برد. چندین نمونه نشان داده است که الگوریتم های هوش مصنوعی نژادپرستانه و جنسیتی هستند. پس چگونه می توان اطمینان حاصل کرد که افرادی که از یک سیستم هوش مصنوعی استفاده می کنند به شیوه ای اخلاقی و اصولی از آن استفاده می کنند؟ چگونه می توان از عدالت و مسئولیت پذیری اطمینان حاصل نمود؟

هوش مصنوعی، تهدیدات سایبری و خرابکاری در داده ها

4. تهدیدات سایبری و خرابکاری در داده ها

هکرها قبلاً استفاده از هوش مصنوعی را برای ساخت حملات فیشینگ پیچیده و رسانه های مصنوعی (مانند دیپ فیک ها و کلون های صوتی) برای فریب قربانیان خود شروع کرده اند. بات مکالمه ChatGPT برای طراحی بدافزار چند شکلی و همچنین دزدهای اطلاعاتی که می توانند از کنترل های امنیتی مدرن فرار کنند، استفاده شده است. مجرمان اینترنتی به طور فزاینده ای در تلاش هستند تا ابزارهای هوش مصنوعی را به سلاح تبدیل کنند، به همین دلیل است که مکالمات در بات مکالمه ChatGPT یکی از داغ ترین بحث ها در دارک وب است.

مجموعه داده های خرابکاری شده می تواند پیامدهای پایین دستی عظیمی داشته باشد. اگر دشمنان به نحوی یاد بگیرند که مدل هوش مصنوعی چگونه کار می کند، می توانند بر الگوریتم آن تأثیر بگذارند و سیستم را فریب دهند تا به شیوه ای دلخواه و شرورانه رفتار نماید. به طور بالقوه، ممکن است سناریویی پیش بیاید که در آن قربانی پس از تأخیر طولانی متوجه شود که مدل هوش مصنوعی خراب شده است که منجر به عواقب قابل پیش بینی وخیم می شود.

اتخاذ رویکردی محتاطانه به هوش مصنوعی

برای رهبران مشاغل علاقه مند به استفاده از هوش مصنوعی، پیشنهاد می شود پیامدهای اخلاقی آن را در نظر بگیرند. اگر داده هایی که یک سیستم هوش مصنوعی بر روی آن آموزش دیده، مغرضانه، ناقص یا نادرست باشد، سیستم هوش مصنوعی به طور مغرضانه یا نادرست نیز جواب خواهد داد. این می تواند منجر به اشتباه در قضاوت و تبعیض شود. هوش مصنوعی را می توان برای ابزارهای اجتماعی خوب (مانند کشف مواد مخدر) یا برای اهداف شرورانه (مانند دیپ فیک و حملات سایبری) استفاده کرد. مانند هر برنامه نرم افزاری، نظارت و نگهداری، آزمایش و اطمینان از عملکرد آن به اندازه مورد انتظار مهم است. سعی کنید در مورد استفاده خود از هوش مصنوعی شفاف باشید. به مردم اطلاع دهید که چه زمانی از هوش مصنوعی استفاده می شود و چگونه مسئولانه از آن استفاده می شود. این می تواند به ایجاد اعتماد و اطمینان کمک کند.

عصر هوش مصنوعی

بیل گیتس می گوید که عصر هوش مصنوعی تازه شروع شده است. بدیهی است که این یک جهش بزرگ فناوری رو به جلو است و مطمئناً راه های بحث برانگیز زیادی وجود دارد که از طریق آنها می توان از این فناوری استفاده کرد یا سوء استفاده کرد. بنابراین، دولت ها، قانون گذاران و کسب و کارها باید خطرات اجتناب ناپذیری را که هوش مصنوعی ایجاد می کند، بشناسند و تعیین کنند که چگونه می توانند بی طرفی را تضمین کنند و آن را ایمن تر و شفاف تر کنند.