پیشرفت های اخیر در زمینه هوش مصنوعی، گفتگوها را در مورد حکمرانی هوش مصنوعی به منصه ظهور رسانده است. اگرچه بسیاری از سازمان ها و شرکت ها در حال حاضر چارچوبی برای استفاده و استقرار هوش مصنوعی و یادگیری ماشین ایجاد کرده‌اند، اما هوش مصنوعی مولد چالش های جدیدی را ارائه می کند.

در این مقاله از مجله اینترنتی، ما برخی از اصول مدیریتی را برای سازمان هایی که چارچوب حاکمیت هوش مصنوعی موجود را به روز می کنند یا از ابتدا ایجاد می کنند، بیان می کنیم.

محوریت انسان در طراحی و نظارت

هوش مصنوعی از یادگیری ماشین استفاده می کند که غیر قطعی است، به این معنی که نتایج ارائه شده توسط هوش مصنوعی فقط باینری صحیح/نادرست نیستند. نتایج، در بهترین حالت، حدس های آماری پاسخ هستند، به این معنی که نتایج ممکن است درست، تا حدودی درست یا نادرست باشند.

هوش مصنوعی مولد لایه دیگری از عدم قطعیت را اضافه می کند. به عنوان بخشی از یک برنامه حاکمیتی، سازمان ها باید تکنیک های زیر را برای تأیید نتایج هوش مصنوعی در نظر بگیرند.

  • Human In The Loop: یک انسان قبل از اقدام، نتایج هوش مصنوعی را تأیید می کند.
  • Human Over The Loop: یک انسان پس از انجام اقدام، نتایج هوش مصنوعی را تأیید می کند.
  • Human Out Of The Loop: سیستم های هوش مصنوعی به طور مستقل بدون نظارت یا تایید انسان عمل می کنند.

گزینه ای که انتخاب می کنید باید بر اساس عوامل فردی، مانند خطری که با توصیه هوش مصنوعی همراه است، تعیین شود و مدل انتخاب شده باید به صورت موردی مورد استفاده قرار گیرد.

حفظ حریم خصوصی و حفاظت از داده ها

بیشتر سازمان ها تلاش قابل‌توجهی را روی زیرساخت های داده خود با سیلو کردن داده ها و پیاده‌سازی لایه های دسترسی به داده ها انجام داده‌اند تا اطمینان حاصل کنند که داده ها فقط توسط افراد و سیستم های ممتاز قابل دسترسی است.

متداول‌ترین تکنیک های مورد استفاده برای آموزش مدل های زبان بزرگ (LLM) و ترانسفورماتورهای از پیش آموزش‌دیده مولد (GPT) برای موارد استفاده سفارشی شامل تنظیم دقیق و ایجاد جاسازی ها می باشد. این شامل ارائه داده های اضافی به LLM است تا خروجی مربوط به موارد استفاده صنعت باشد.

با این حال، هوش مصنوعی مولد می تواند اطلاعات خصوصی موجود در داده های آموزشی را فاش کند. به عنوان مثال، در مقاله ای که اخیراً منتشر شده است، محققان توانستند با بودجه 200 دلاری، اطلاعات شناسایی شخصی (PII) را از ChatGPT استخراج کنند. پس از افشای اطلاعات داخلی، سامسونگ استفاده از ChatGPT را نیز ممنوع کرد.

برای اطمینان از وجود کنترل های مناسب، سازمان ها باید بپرسند:

چه داده هایی برای تنظیم دقیق و جاسازی (بردار پایگاه داده، فایل ها و غیره) استفاده می شود؟ مطمئن شوید که سازمان شما پاسخ این سؤالات را درک می کند: مناطق داده و سیلوها چیست؟ دسترسی چگونه کنترل می شود؟ PII و داده های حساس چگونه کنترل و نظارت می شوند؟ دسترسی به GPT و برنامه های مبتنی بر GPT چگونه کنترل می شود؟

آیا نظارت سریع و پاسخ دارید؟ شما باید یک خط مشی و چارچوب فنی برای نظارت بر استفاده از داده های حساس (مانند PII، اسرار تجاری و کد) در درخواست ها ایجاد کنید. شما همچنین به یک خط مشی و چارچوب فنی نیاز دارید تا اطمینان حاصل شود که داده های حساس در پاسخ ها در معرض دید قرار نمی گیرند. (به عنوان مثال، اگر کد برای آموزش یا تنظیم دقیق به GPT ارائه شود، مقادیر کدگذاری شده در فایل های کد و ویژگی ها ممکن است بخشی از خروجی شود.)

ایمنی، امنیت و قابلیت اطمینان

امنیت هوش مصنوعی مولد بر اساس پادمان های موجود برای سایر جنبه‌های امنیت فنی است، اما برخی از مسائل خاص برای امنیت هوش مصنوعی مولد شامل محافظت در برابر:

تزریق سریع: این زمانی است که یک بازیگر بد سعی می کند یک مدل را از پارامترهای آموزشی خود با استفاده از دستورات برای فاش کردن اطلاعات “گیج” کند.

مسمومیت داده ها: زمانی اتفاق می افتد که شخصی به شکلی شرورانه داده های اشتباهی را در اختیار مدل قرار می دهد تا بر خروجی های آن تأثیر بگذارد.

نشت داده: شرکت ها باید خروجی های سیستم هوش مصنوعی را نظارت کنند تا از رعایت سیاست های حفاظت از دست دادن داده های سازمانی اطمینان حاصل کنند.

استفاده اخلاقی و مسئولانه

سیستم های هوش مصنوعی بر روی داده های آموزشی خود کار می کنند، بنابراین هرگونه سوگیری ذاتی که برای آموزش یا تنظیم دقیق یک مدل استفاده می شود، ممکن است تقویت شود.

به عنوان مثال، مطالعه اخیری که توسط برخی از جراحان دانشگاه براون انجام شد، نشان داد که مولدهای محبوب تبدیل متن به تصویر هوش مصنوعی، تصاویری از جراحان به عنوان مردان سفیدپوست تولید می کنند. مطالعات مشابه سوگیری های جنسیتی و نژادی را در سایر مدل های هوش مصنوعی مولد نشان داده است.

سازمان ها باید چارچوبی ایجاد کنند که داده های مورد استفاده برای آموزش و تنظیم دقیق مدل ها را برای تعیین سوگیری ها بررسی می کند و سپس قبل از اجرای سیستم، این سوگیری ها را کاهش می دهد.

شفافیت و توضیح پذیری

سیستم های یادگیری ماشین می توانند از درخت های تصمیم گیری بسیار پیچیده و عمیق عبور کنند تا به خروجی برسند. با این حال، افرادی که از این خروجی ها استفاده می کنند، متوجه نمی شوند که چگونه به تصمیم خود رسیده است، مگر اینکه ابزار دقیق از همان ابتدا در سیستم پیاده سازی شده باشد.

به طور کلی ایجاد قابلیت توضیح در مدل یک تمرین خوب است، اما توانایی توضیح اینکه چرا یک نتیجه خاص توسط یک سیستم هوش مصنوعی ایجاد شده است نیز ممکن است توسط تنظیم کننده ها مورد نیاز باشد. تیم های فناوری که فناوری هوش مصنوعی را تعریف می کنند باید ابزارها و تکنیک های استاندارد تفسیرپذیری را تحقیق و اجرا کنند. این به توسعه دهندگان و کاربران اجازه می دهد تا خروجی را به پارامترها و معیارهای خاص ردیابی کنند.

پاسخگویی و مسئولیت

یک مدل حاکمیت سازمانی برای هوش مصنوعی باید به وضوح پاسخگویی برای خروجی های تولید شده توسط سیستم های هوش مصنوعی را بیان کند. در صنایع تحت نظارت، ممکن است یک سازمان از نظر قانونی ملزم به توضیح روش مورد استفاده برای اتخاذ تصمیمات خاص باشد. برای ایجاد مسئولیت پذیری، با موارد زیر شروع کنید:

1. شناسایی مباشران فرآیند و ذینفعان.

2. تعریف واضح معیارهای پاسخگویی.

3. تعریف واضح فرکانس بررسی بر اساس امتیاز ریسک.

4. درک تأثیرات نظارتی، مشتری، اعتبار و مالی.

هیئت حاکمیت

در حالی که راه های زیادی برای شروع اجرای این اصول وجود دارد، یکی از بهترین راه ها برای شروع، تعیین هیئت مدیره سازمانی است. این هیئت باید شامل کمیته های زیر باشد تا از پایبندی به رویه ها و نظارت اطمینان حاصل شود:

1. کمیته راهبری: این کمیته شامل سهامداران ارشد از انطباق، فناوری اطلاعات، مدیریت ریسک، حقوقی و واحدهای تجاری است. آنها مسئول تعیین جهت و خط مشی استراتژیک هستند.

2. کمیته ریسک و انطباق: آنها بر روی انطباق با مقررات و ریسک عملیاتی، اعتباری و حسابرسی تمرکز دارند. آنها همچنین باید از رعایت استانداردهای اخلاقی و الزامات قانونی اطمینان حاصل کنند.

3. کمیته بررسی فنی (مرجع طراحی): این کمیته باید شامل متخصصان معماری سازمانی، هوش مصنوعی، علم داده و امنیت سایبری باشد. آنها استانداردهای سازمانی را برای پشته فناوری، زیرساخت ها و پلتفرم ها ارزیابی و تعریف می کنند و همچنین باید استحکام فنی، مقیاس پذیری و امنیت را ارزیابی کنند.

با وجود افراد مناسب و با پیروی از اصول این مقاله، سازمان ها باید پایه ای قوی برای مدیریت حاکمیت هوش مصنوعی داشته باشند.