با گسترش اخیر برنامههای مبتنی بر هوش مصنوعی مولد سازمانها تلاش خود را برای پذیرش این فناوری افزایش دادهاند تا از مزایای پیشبینیشده آن بهرهمند شوند.
هوش مصنوعی مسئول، چیست و چرا برای شرکتهای بیمه زندگی و سلامت اهمیت دارد؟
هوش مصنوعی مسئول، چیست و چرا برای شرکتهای بیمه زندگی و سلامت اهمیت دارد؟
به گزارش دیوان اقتصاد، با گسترش اخیر برنامههای مبتنی بر هوش مصنوعی مولد[۱] سازمانها تلاش خود را برای پذیرش این فناوری افزایش دادهاند تا از مزایای پیشبینیشده آن بهرهمند شوند. در بخش بیمه عمر و سلامت، پذیرش هوش مصنوعی سنتی و به طور فزاینده هوش مصنوعی مولد، به طور اجتنابناپذیری با ملاحظات اساسی، مثلا درباره توانایی مدل هوش مصنوعی در اجتناب از تبعیض ناعادلانه و اطمینان از دقت همراه است.
همچنین بسیار مهم است که در نظر گرفته شود هوش مصنوعی چگونه در جریان کار کارکنان ادغام خواهد شد و چگونه میتوان رابطه انسان و کامپیوتر را بهصورت هوشمندانه طراحی کرد. هوش مصنوعی مسئول راهنمایی ارزشمندی ارائه میدهد تا اعتماد ایجاد کند و به بیمهگران کمک کند تا بهطور کامل از مزایای بالقوه هوش مصنوعی بهرهمند شوند.
هوش مصنوعی مسئول یا RAI چیست؟
هوش مصنوعی مسئول در سالهای اخیر به طور قابلتوجهی مورد توجه قرار گرفته است. اگرچه در حال حاضر تعریف جهانی برای آن وجود ندارد، RAI عموماً بهعنوان مجموعهای از اصول و فرآیندها در نظر گرفته میشود که توسعه و استفاده از سیستمهای هوش مصنوعی را هدایت میکند. سازمانها اصولRAI را بر اساس نیازهای تجاری خود و با رعایت مقررات محلی مرتبط تطبیق میدهند، اما موضوعات مشترکی اغلب پدیدار میشوند. این موضوعات عمدتاً بر شفافیت، عدالت، مسئولیتپذیری و حریم خصوصی متمرکز هستند. RAI همچنین به اطمینان از تناسب کاربردهای هوش مصنوعی با هدف مورد نظر و همسویی آنها با اهداف تجاری از پیش تعیینشده اشاره دارد.
اصول کلیدی RAI چیست؟
دستورالعملهای هوش مصنوعی مسئولانه RAI حول پنج اصل کلیدی متمرکز هستند:
عدالت: اطمینان حاصل شود که مدلهای هوش مصنوعی تبعیض ندارند. به عنوان مثال، مصرفکنندگان باید بتوانند بدون توجه به قومیت خود به بیمه دسترسی داشته باشند.
شفافیت و توضیحپذیری: اطمینان از وضوح در استفاده و محدودیتهای سیستمهای هوش مصنوعی و ارائه توضیحات قابل درک درباره تصمیماتی که این سیستمها میگیرند.
استحکام، امنیت و ایمنی: اطمینان از اینکه سیستمهای هوش مصنوعی دقیق، قابل اعتماد و نتایج دقیقی ارائه میدهند و از سوءاستفاده و تهدیدات محافظت میشوند (با رعایت استانداردها و مقررات ایمنی). به عنوان مثال، یک مدل هوش مصنوعی باید دارای کنترلهایی باشد که مانع از تولید خروجیها در زمانی شود که سیستم به خطر افتاده است.
مسئولیتپذیری: تعیین مسئولیتهای روشن برای نتایج و آسیبهای احتمالی ناشی از هوش مصنوعی، مانند تصمیمگیریهای مغرضانه، از طریق انتصاب یک مالک مدل کسبوکار که به طور کلی مسئولیت مدل را بر عهده دارد و یک مالک فناوری کسبوکار برای استقرار فنی آن ایجاد کنید
حریم خصوصی: ایجاد ، رویهها و کنترلهای مناسب برای مدیریت دادهها در سیستمهای هوش مصنوعی و اطمینان از محافظت از هرگونه اطلاعات شخصی در برابر دسترسی و استفاده هوش مصنوعی سنتی و به طور فزاینده هوش مصنوعی تولیدی محافظت شود این اقدامات شامل مواردی مانند ناشناسسازی دادهها میشود
ایجاد اطمینان و اعتماد به مدلهای هوش مصنوعی مستلزم ادغام تمامی اصول ذکر شده هوش مصنوعی مسئول RAI است. علاوه بر این، بیمهگرانی که چارچوب RAI را در مراحل اولیه چرخه توسعه مدلهای هوش مصنوعی پیادهسازی میکنند، موقعیت بهتری برای جلب اعتماد و کاهش ریسکهای منفی، مانند تعصب و تبعیض، از همان ابتدا خواهند داشت.
آیا RAI اکنون در عصر هوش مصنوعی مولد اهمیت بیشتری دارد؟
هوش مصنوعی برای صنعت بیمه عمر و سلامت موضوع جدیدی نیست. با توجه به خطرات ذاتی هوش مصنوعی، همواره مهم بوده است که از آن بهصورت مسئول در صنعت ما استفاده شود. با این حال، با ورود فناوریهای جدیدی مانند هوش مصنوعی مولد (Generative AI) به جریان اصلی و تکامل مداوم ریسک، باید کاربرد اصول هوش مصنوعی مسئولانه RAI را برای کاهش ریسکهای نوظهور تطبیق دهیم. ریسکهای کلیدی شامل موارد زیر است:
اطلاعات نادرست: ریسک تولید خروجیهای اشتباه یا گمراهکننده توسط هوش مصنوعی.
توهمات: تولید خروجیهای بیمعنی یا نادرست.
نگرانیهای اخلاقی: ریسک نتایج مغرضانه.
ناشناختههای ناشناخته: ریسکهایی که هنوز شناسایی نشدهاند.
این چالشها بر اهمیت استفاده از شیوههای هوش مصنوعی مسئولانه RAI تأکید دارند تا بتوان بهطور مؤثر با ریسکهای احتمالی مقابله کرد.
از دیدگاه کاربران، آیا هوش مصنوعی مسئول، فراتر از خود سیستم هوش مصنوعی عمل میکند؟
پاسخ کوتاه این است که: بله. هوش مصنوعی مسئول، به اولویت دادن به نیازهای انسانی در رابطه انسان و هوش مصنوعی مربوط میشود. با گسترش روزافزون هوش مصنوعی مولد در حوزههای تصمیمگیری خلاقانه یا استراتژیک، طراحی ابزارهای هوش مصنوعی به گونهای که بازتابدهنده دیدگاههای انسانی باشد، اهمیت بیشتری پیدا میکند. بهعنوان مثال، ابزارهای هوش مصنوعی مولد که معمولاً مکالمهمحور و چندمنظوره هستند، ممکن است متخصصان را وسوسه کنند که بهطور منفعلانه پاسخهای هوش مصنوعی را بپذیرند، به جای آنکه فعالانه تحقیق کنند (شکل ۱). این مسئله میتواند به اشتباهاتی منجر شود که قابل اجتناب هستند. چنین اتکای بیش از حدی به هوش مصنوعی ممکن است توانایی تصمیمگیری حرفهایها را در حوزههای استراتژیک را نیز تضعیف کند.
بنابراین، دانشمندان علوم رفتاری و متخصصان تجربه کاربری باید تعاملات انسان و هوش مصنوعی را به گونهای طراحی کنند که تعادل مناسبی بین استفاده از هوش مصنوعی و جلوگیری از وابستگی بیش از حد به آن ایجاد کنند.
شکل ۱- پیوستار اعتماد به هوش مصنوعی
راهنمایی کاربران به سمت «منطقه تعادل» هوش مصنوعی برای بهرهبرداری کامل از مزایای هوش مصنوعی
وابستگی بیش از حد به هوش مصنوعی
«منطقه تعادل» هوش مصنوعی
نفرت از هوش مصنوعی
افراد هوش مصنوعی را میپذیرند و از همان ابتدا یا پس از آزمایش اولیه، بدون تأمل به پاسخهای آن اعتماد میکنند.
در «منطقه تعادل» هوش مصنوعی، افراد رویکردی متعادل نسبت به خروجیهای هوش مصنوعی نشان میدهند، برای مثال، با اتخاذ فلسفه «اعتماد کن، اما راستیآزمایی کن».
افراد نسبت به هوش مصنوعی احساس نفرت دارند. آنها یا از همان ابتدا مدلهای هوش مصنوعی را رد کردهاند، یا از کیفیت پاسخهای هوش مصنوعی ناامید شدهاند که این موضوع باعث کاهش اعتماد و تعامل آنها در ادامه میشود.
مزایا:
• استفاده گسترده از قابلیتهای هوش مصنوعی، با پتانسیل افزایش دقت (و بهرهوری) در صورتی که دقت هوش مصنوعی از دقت افراد بیشتر باشد.
• میتواند بهویژه برای همکاران کمتجربه مفید باشد.
مزایا:
• افزایش دقت و بهرهوری از طریق همکاری مؤثر انسان و هوش مصنوعی.
• امکان اصلاح خروجیهای هوش مصنوعی بر اساس بازخورد کاربران.
• توسعه مستمر قابلیتهای انسانی.
مزایا:
• ریسک کمتری از بروز خطاهای تصمیمگیری ناشی از هوش مصنوعی.
• حفظ توانمندیهای تصمیمگیری انسانی.
ریسکها:
• بروز خطاهای تصمیمگیری در مواردی که پاسخهای هوش مصنوعی دقیق نباشند و توسط افراد شناسایی نشوند.
• تضعیف تخصص حرفهای برای افرادی که بخشهای مرتبط با تصمیمگیری خود را به هوش مصنوعی واگذار میکنند.
ریسکها:
• طراحی ضعیف تعاملات انسان و هوش مصنوعی، که منجر به عدم دستیابی به مزایای فوق میشود، حتی اگر افراد تا حدی به مدلهای هوش مصنوعی اعتماد داشته باشند
ریسکها:
• تعامل پایین، پتانسیل افزایش دقت یا بهرهوری ناشی از پذیرش هوش مصنوعی را محدود میکند.
چگونه میتوان تعادل مناسبی بین اعتماد و بدبینی سالم ایجاد کرد؟
ارائه اطلاعات به کاربران درباره دقت مورد انتظار یک دستیار هوش مصنوعی مولد، بر اساس اینکه دستیار در انجام وظایف مشابه چند بار درست عمل کرده است، یکی از راههای ایجاد این تعادل در طیف اعتماد به هوش مصنوعی است. چنین رتبهبندیهایی کاربران را تشویق میکند که پیش از اقدام، پاسخها را مرور و اعتبارسنجی کنند، بهویژه در موارد حساس و پرمخاطره.
در استراتژی دیگر، رابط کاربری میتواند به طور منظم کاربران را ترغیب کند که وظایف را به صورت دستی انجام دهند (مثلاً هر دهمین بار)، تا مهارتهای پایهای و مرتبط خود را تقویت کنند، در حالی که همچنان از پشتیبانی هوش مصنوعی بهرهمند میشوند.
به عنوان مثال، بیمهگران که به یک دستیار هوش مصنوعی مولد برای مدیریت بیشتر پروندههای خود متکی هستند، ممکن است گاهبهگاه برای بررسی دقیق اطلاعات پایهای ترغیب شوند، پیش از آنکه به نتیجهگیری در ارزیابی خود بپردازند.
هوش مصنوعی مسئول چگونه انتظارات انسانی، بهویژه شکاف اعتماد به هوش مصنوعی، را برطرف میکند؟
اعتماد به هوش مصنوعی عامل تعیینکنندهای در تعامل کاربران با آن است. اما کسب اعتماد بستگی به این دارد که آیا ابزارهای هوش مصنوعی قابل فهم، قابل اعتماد و مطابق با انتظارات ما هستند و به این ترتیب اصول هوش مصنوعی مسئول را منعکس میکنند یا خیر. بدون این عناصر، کاربران ابزارهای هوش مصنوعی ممکن است از تعامل با آنها صرفنظر کنند. در واقع، کارمندان معمولاً در پذیرش توصیههای الگوریتمی تمایل ندارند؛ و سه نفر از هر پنج مدیر اظهار کردهاند که نسبت به اعتماد به سیستمهای هوش مصنوعی محتاط هستند.
چگونه میتوانیم اعتماد ایجاد کنیم؟
تحقیقات نشان میدهد که زمانی که یک فناوری جدید ناامیدکننده باشد، بازگرداندن اعتماد و جلب مشارکت مجدد کاربران به یک چالش تبدیل میشود. بنابراین، یکی از کلیدهای ایجاد اعتماد و تعامل پایدار، مدیریت مؤثر انتظارات کاربران است. بهعنوان مثال، شرکت Swiss Re بهتازگی Life Guide Scout را راهاندازی کرده است، که یک دستیار ارزیابی ریسک مبتنی بر هوش مصنوعی مولد است و برای راهنمای ارزیابی ریسک Life Guide طراحی شده است. در مرحله آزمایشی، ارتباطات بر شفافیت و مدیریت انتظارات متمرکز بود و بهویژه بر موارد زیر تأکید داشت:
منبع داده: ما به کاربران اطلاع دادیم که تمام دادهها صرفاً از Life Guide استخراج شدهاند. همراه با هر پاسخ، Life Guide Scout پیوندهایی به بخشهای مرتبط در Life Guide ارائه میداد تا کاربران بتوانند از شفافیت کامل در مورد منبع دادهها بهرهمند شوند.
شریک توسعه: ما به همکاری خود با Microsoft OpenAI تأکید کردیم.
مرحله توسعه: بهصراحت اعلام کردیم که در مرحله آزمایشی/بتا قرار داریم.
قابلیتها و محدودیتها: محدودیتهای Life Guide Scout را بهوضوح مشخص کردیم.
یک اعلامیه و درخواست ارائه بازخورد بهوضوح مشخص کرد که هوش مصنوعی در این تعامل انسان-هوش مصنوعی نقشی مشورتی ایفا میکند.
نتیجهگیری
هوش مصنوعی با سرعت در حال تحول بخش بیمه عمر و سلامت L&H است و فرصتهای جدیدی برای نوآوری و افزایش بهرهوری ارائه میدهد. با این حال، همراه با پیشرفت هوش مصنوعی، چالشها و ریسکهای جدیدی نیز به وجود میآید، از جمله سوگیری، نادرستی، اطلاعات نادرست و مشکلات اخلاقی. برای ترویج استفادهای قابلاعتماد و سودمند از هوش مصنوعی، شرکتهای بیمه باید چارچوب هوش مصنوعی مسئول RAI را بهکار گیرند تا توسعه و استفاده از سیستمهای هوش مصنوعی را بر اساس اصول انصاف، شفافیت، پاسخگویی، استحکام و حریم خصوصی هدایت کنند.
هوش مصنوعی مسئول نهتنها به جنبههای فنی هوش مصنوعی میپردازد، بلکه شامل تعامل انسان-هوش مصنوعی و همسویی هوش مصنوعی با اهداف کسبوکار و ارزشهای اجتماعی نیز میشود. با بهکارگیری اصول RAI و بهرهگیری از بینشهای علم رفتاری، شرکتهای بیمه میتوانند به افزایش اعتماد و اطمینان کاربران نسبت به هوش مصنوعی کمک کنند و در نهایت نتایج بهتری برای مشتریان و جامعه ارائه دهند.
ما را در شبکه های اجتماعی دنبال کنید.
کانال تلگرام دیوان اقتصاد صفحه اینستاگرام دیوان اقتصاد