هوش مصنوعی این قدرت را دارد که به اندازه اینترنت و حتی رایانه شخصی مختل کننده باشد. حتی ممکن است به زودی هوش مصنوعی را به‌عنوان برنامه قاتل نهایی برای همه پلتفرم ها، از گوشی های هوشمند گرفته تا رایانه های بزرگ در نظر بگیریم.

اخبار و توصیه‌های مربوط به هوش مصنوعی شبکه های اجتماعی کسب و کار را اشباع می کند، اما کمی از سر و صدا به موضوعی اختصاص دارد که بسیاری  آن را مهم‌ترین موضوع می دانند: مدیریت هوش مصنوعی.

این مقاله از مجله اینترنتی اسید هولیک توضیح می دهد که چگونه سازمان ها می توانند حکمرانی هوش مصنوعی را ایجاد کنند و اطمینان حاصل کنند که همه استفاده های هوش مصنوعی ایمن، اخلاقی و قانونی هستند.

طبقه بندی سیستم های هوش مصنوعی

مطمئنا همه سیستم های هوش مصنوعی خطرات یکسانی ندارند یا ارزش یکسانی برای سازمان ها ندارند. مانند سایر قابلیت های فناوری، سازمان های مهم یک طرح طبقه‌بندی ساده ایجاد می کنند تا سیستم‌های با ریسک بالاتر را از سیستم‌هایی که ریسک کمتری را نشان می دهند جدا کنند.

معیارهای مورد استفاده برای طبقه بندی سیستم های هوش مصنوعی عبارتند از:

1. داده های آموزشی:

آیا داده های مورد استفاده برای آموزش یک سیستم هوش مصنوعی حاوی داده های حساسی مانند اطلاعات شناسایی شخصی (PII)، داده های مالی منتشر نشده یا مالکیت معنوی هستند؟ آیا سیستم هوش مصنوعی از داده های در دسترس عموم برای آموزش استفاده می کند؟ آیا داده های آموزشی می توانند مسموم شوند؟

2. تصمیم گیری:

آیا سیستم هوش مصنوعی تصمیماتی مانند تعیین قیمت محصول یا خدمات، پاداش کارکنان یا تصمیمات استخدام/عدم استخدام می گیرد؟

3. افشاگری ها:

آیا سیستم هوش مصنوعی از داده های کارمندان یا مشتریان استفاده می کند و آیا سیاست های حفظ حریم خصوصی این را فاش می کند؟ آیا کاربرانی که با سیستم ها، چت بات ها یا پاسخ‌های صوتی تعاملی (IVR) در تعامل هستند، میدانند که در حال تعامل با یک سیستم هوش مصنوعی هستند؟

4. انسان در حلقه:

آیا نظارت انسانی کافی برای سیستم های هوش مصنوعی خاص برنامه ریزی شده است، بنابراین انسان ها می توانند بر تصمیم گیری نظارت یا تایید کنند یا تصمیمات سیستم هوش مصنوعی را نادیده بگیرند؟

الزامات هوش مصنوعی

هنگامی که طبقه بندی هوش مصنوعی ایجاد شد، سازمان ها باید الزامات خاصی را در رابطه با طراحی، استفاده و نظارت بر سیستم های هوش مصنوعی ایجاد کنند. الزامات سیستم های هوش مصنوعی با ریسک بالاتر اغلب سختگیرانه تر از سیستم های هوش مصنوعی کم خطر است.

الزامات هوش مصنوعی باید به طور رسمی ارزیابی، ردیابی و امتیازدهی شود تا از نتایج مطلوب اطمینان حاصل شود. تجزیه و تحلیل نیازمندی ها به احتمال زیاد برای سیستم های هوش مصنوعی در سازمان هایی که به طور رسمی انواع دیگر نیازها را در نظر می گیرند، مورد توجه قرار می گیرد.

سیاست هوش مصنوعی

خط‌مشی سازمانی باید به استفاده‌های مجاز و ممنوعه از هوش مصنوعی در سازمان بپردازد و تصریح کند.

با این حال، سیاست‌گذاران اگر رویکرد «هوش مصنوعی در اینجا مجاز نیست» را در نظر بگیرند، باید فراگیر بودن سیستم های هوش مصنوعی در اینترنت را درک کنند. هوش مصنوعی سایه، جایی که کاربران نهایی راه هایی را برای استفاده از ابزارهای هوش مصنوعی پیدا می کنند، رایج است. مانند «زندگی راهی پیدا می کند» در پارک ژوراسیک، کارگران یک سازمان نحوه استفاده از ابزارهای هوش مصنوعی را متوجه خواهند شد، حتی اگر استفاده از آنها مجاز نباشد.

بررسی سیستم های هوش مصنوعی پیشنهادی

همانند سایر قابلیت ها، باید پرسنل خاصی برای بررسی ویژگیهای سیستم های هوش مصنوعی پیشنهادی تعیین شوند تا اطمینان حاصل شود که استفاده از آنها ایمن، اخلاقی، امن و قانونی خواهد بود.

مانند بررسی معماری امنیتی، بررسی سیستم های هوش مصنوعی پیشنهادی باید زمینه سیستم هوش مصنوعی پیشنهادی را درک کند و معماری، حفاظت از داده ها، جریان داده ها و نحوه ادغام سیستم هوش مصنوعی با سایر فرآیندها و سیستم ها را بررسی کند.

پرسنلی که این بررسی ها را انجام می دهند باید پشته فناوری سازمان، معماری سیستم های اطلاعاتی و مفاهیم مدیریت را بدانند.

راه حل در جستجوی مشکلات

بسیاری دپارتمان “آی تی” بدنام وجود دارند که از جدیدترین فناوری های نوین استفاده می کنند و حتی قبل از شناسایی مشکلات تجاری مشتاق به پذیرش قابلیت‌های جدید هستند. مثالش آن است که همه ما اسباب‌بازی های جدیدمان را میخواهیم، ​​حتی اگر کاربردهایی برای آنها پیدا نکرده باشیم.

جذابیت هوش مصنوعی نوید می دهد که حتی سرسخت ترین کارکنان سازمان ها و شرکت ها را اغوا کند. سازمان هایی که فاقد ساختارهای حاکمیتی هستند، احتمالاً از هوش مصنوعی در سطح کارکنان استفاده می کنند، اغلب بدون آگاهی از نحوه استفاده آن.

سخن پایانی و عوامل موفقیت

به طور کلی، سازمان هایی که بلوغ بالاتری دارند، احتمالاً با موفقیت بر استفاده از هوش مصنوعی حکومت می کنند و مطمئن می شوند که هوش مصنوعی ارزشی را به سازمان آنها ارائه می کند بدون اینکه آن را در معرض خطرات غیرقابل قبول قرار دهد.

سازمان هایی با بلوغ پایین‌تر که فاقد فناوری اطلاعات و ساختارهای حاکمیتی امنیت سایبری هستند، احتمالاً کنترل هوش مصنوعی را به کاربران نهایی و بخش‌ها واگذار می کنند. برای آن سازمان هایی که بلوغ پایین‌تر دارند، تقریباً از قبل شکست خورده محسوب می شوند.

مانند هر فناوری دیگری، هوش مصنوعی یک تقویت کننده نیرو با پتانسیل بالا برای کارآمدتر و دقیق‌تر کردن کارکنان و فرآیندهای تجاری است. با این حال، بدون ساختارهای حاکمیتی مناسب، پیامدهای استفاده از سیستم های هوش مصنوعی بدون پادمان‌ها میتواند سازمان ها را در معرض خطرات مهم‌تری نسبت به سایر فناوری های مخرب قرار دهد.