هوش مصنوعی مسئول، چیست و چرا برای شرکت‌های بیمه زندگی و سلامت اهمیت دارد؟

هوش مصنوعی مسئول، چیست و چرا برای شرکت‌های بیمه زندگی و سلامت اهمیت دارد؟

با گسترش اخیر برنامه‌های مبتنی بر هوش مصنوعی مولد سازمان‌ها تلاش خود را برای پذیرش این فناوری افزایش داده‌اند تا از مزایای پیش‌بینی‌شده آن بهره‌مند شوند.

به گزارش دیوان اقتصاد، با گسترش اخیر برنامه‌های مبتنی بر هوش مصنوعی مولد[۱] سازمان‌ها تلاش خود را برای پذیرش این فناوری افزایش داده‌اند تا از مزایای پیش‌بینی‌شده آن بهره‌مند شوند. در بخش بیمه عمر و سلامت، پذیرش هوش مصنوعی سنتی و به طور فزاینده هوش مصنوعی مولد، به طور اجتناب‌ناپذیری با ملاحظات اساسی، مثلا درباره توانایی مدل هوش مصنوعی در اجتناب از تبعیض ناعادلانه و اطمینان از دقت همراه است.

همچنین بسیار مهم است که در نظر گرفته شود هوش مصنوعی چگونه در جریان کار کارکنان ادغام خواهد شد و چگونه می‌توان رابطه انسان و کامپیوتر را به‌صورت هوشمندانه طراحی کرد. هوش مصنوعی مسئول راهنمایی ارزشمندی ارائه می‌دهد تا اعتماد ایجاد کند و به بیمه‌گران کمک کند تا به‌طور کامل از مزایای بالقوه هوش مصنوعی بهره‌مند شوند.

هوش مصنوعی مسئول یا RAI چیست؟

هوش مصنوعی مسئول در سال‌های اخیر به طور قابل‌توجهی مورد توجه قرار گرفته است. اگرچه در حال حاضر تعریف جهانی برای آن وجود ندارد، RAI عموماً به‌عنوان مجموعه‌ای از اصول و فرآیندها در نظر گرفته می‌شود که توسعه و استفاده از سیستم‌های هوش مصنوعی را هدایت می‌کند. سازمان‌ها اصولRAI را بر اساس نیازهای تجاری خود و با رعایت مقررات محلی مرتبط تطبیق می‌دهند، اما موضوعات مشترکی اغلب پدیدار می‌شوند. این موضوعات عمدتاً بر شفافیت، عدالت، مسئولیت‌پذیری و حریم خصوصی متمرکز هستند. RAI همچنین به اطمینان از تناسب کاربردهای هوش مصنوعی با هدف مورد نظر و همسویی آن‌ها با اهداف تجاری از پیش تعیین‌شده اشاره دارد.

اصول کلیدی RAI چیست؟

دستورالعمل‌های هوش مصنوعی مسئولانه RAI حول پنج اصل کلیدی متمرکز هستند:

عدالت: اطمینان حاصل شود که مدل‌های هوش مصنوعی تبعیض ندارند. به عنوان مثال، مصرف‌کنندگان باید بتوانند بدون توجه به قومیت خود به بیمه دسترسی داشته باشند.

شفافیت و توضیح‌پذیری: اطمینان از وضوح در استفاده و محدودیت‌های سیستم‌های هوش مصنوعی و ارائه توضیحات قابل درک درباره تصمیماتی که این سیستم‌ها می‌گیرند.

استحکام، امنیت و ایمنی: اطمینان از اینکه سیستم‌های هوش مصنوعی دقیق، قابل اعتماد و نتایج دقیقی ارائه می‌دهند و از سوءاستفاده و تهدیدات محافظت می‌شوند (با رعایت استانداردها و مقررات ایمنی). به عنوان مثال، یک مدل هوش مصنوعی باید دارای کنترل‌هایی باشد که مانع از تولید خروجی‌ها در زمانی شود که سیستم به خطر افتاده است.

مسئولیت‌پذیری: تعیین مسئولیت‌های روشن برای نتایج و آسیب‌های احتمالی ناشی از هوش مصنوعی، مانند تصمیم‌گیری‌های مغرضانه، از طریق انتصاب یک مالک مدل کسب‌وکار که به طور کلی مسئولیت مدل را بر عهده دارد و یک مالک فناوری کسب‌وکار برای استقرار فنی آن ایجاد کنید

حریم خصوصی: ایجاد ‌، رویه‌ها و کنترل‌های مناسب برای مدیریت داده‌ها در سیستم‌های هوش مصنوعی و اطمینان از محافظت از هرگونه اطلاعات شخصی در برابر دسترسی و استفاده هوش مصنوعی سنتی و به طور فزاینده هوش مصنوعی تولیدی محافظت شود این اقدامات شامل مواردی مانند ناشناس‌سازی داده‌ها می‌شود

ایجاد اطمینان و اعتماد به مدل‌های هوش مصنوعی مستلزم ادغام تمامی اصول ذکر شده هوش مصنوعی مسئول RAI است. علاوه بر این، ‌ بیمه‌گرانی که چارچوب RAI را در مراحل اولیه چرخه توسعه مدل‌های هوش مصنوعی پیاده‌سازی می‌کنند، موقعیت بهتری برای جلب اعتماد و کاهش ریسک‌های منفی، مانند تعصب و تبعیض، از همان ابتدا خواهند داشت.

آیا RAI اکنون در عصر هوش مصنوعی مولد اهمیت بیشتری دارد؟

هوش مصنوعی برای صنعت بیمه عمر و سلامت موضوع جدیدی نیست. با توجه به خطرات ذاتی هوش مصنوعی، همواره مهم بوده است که از آن به‌صورت مسئول در صنعت ما استفاده شود. با این حال، با ورود فناوری‌های جدیدی مانند هوش مصنوعی مولد (Generative AI) به جریان اصلی و تکامل مداوم ریسک، باید کاربرد اصول هوش مصنوعی مسئولانه RAI را برای کاهش ریسک‌های نوظهور تطبیق دهیم. ریسک‌های کلیدی شامل موارد زیر است:

اطلاعات نادرست: ریسک تولید خروجی‌های اشتباه یا گمراه‌کننده توسط هوش مصنوعی.

توهمات: تولید خروجی‌های بی‌معنی یا نادرست.

نگرانی‌های اخلاقی: ریسک نتایج مغرضانه.

ناشناخته‌های ناشناخته: ریسک‌هایی که هنوز شناسایی نشده‌اند.

این چالش‌ها بر اهمیت استفاده از شیوه‌های هوش مصنوعی مسئولانه RAI تأکید دارند تا بتوان به‌طور مؤثر با ریسک‌های احتمالی مقابله کرد.

از دیدگاه کاربران، آیا هوش مصنوعی مسئول، فراتر از خود سیستم هوش مصنوعی عمل می‌کند؟

پاسخ کوتاه این است که: بله. هوش مصنوعی مسئول، به اولویت دادن به نیازهای انسانی در رابطه انسان و هوش مصنوعی مربوط می‌شود. با گسترش روزافزون هوش مصنوعی مولد در حوزه‌های تصمیم‌گیری خلاقانه یا استراتژیک، طراحی ابزارهای هوش مصنوعی به گونه‌ای که بازتاب‌دهنده دیدگاه‌های انسانی باشد، اهمیت بیشتری پیدا می‌کند. به‌عنوان مثال، ابزارهای هوش مصنوعی مولد که معمولاً مکالمه‌محور و چندمنظوره هستند، ممکن است متخصصان را وسوسه کنند که به‌طور منفعلانه پاسخ‌های هوش مصنوعی را بپذیرند، به جای آنکه فعالانه تحقیق کنند (شکل ۱). این مسئله می‌تواند به اشتباهاتی منجر شود که قابل اجتناب هستند. چنین اتکای بیش از حدی به هوش مصنوعی ممکن است توانایی تصمیم‌گیری حرفه‌ای‌ها را در حوزه‌های استراتژیک را نیز تضعیف کند.

بنابراین، دانشمندان علوم رفتاری و متخصصان تجربه کاربری باید تعاملات انسان و هوش مصنوعی را به گونه‌ای طراحی کنند که تعادل مناسبی بین استفاده از هوش مصنوعی و جلوگیری از وابستگی بیش از حد به آن ایجاد کنند.

شکل ۱- پیوستار اعتماد به هوش مصنوعی

راهنمایی کاربران به سمت «منطقه تعادل» هوش مصنوعی برای بهره‌برداری کامل از مزایای هوش مصنوعی

وابستگی بیش از حد به هوش مصنوعی

«منطقه تعادل» هوش مصنوعی

نفرت از هوش مصنوعی

افراد هوش مصنوعی را می‌پذیرند و از همان ابتدا یا پس از آزمایش اولیه، بدون تأمل به پاسخ‌های آن اعتماد می‌کنند.

در «منطقه تعادل» هوش مصنوعی، افراد رویکردی متعادل نسبت به خروجی‌های هوش مصنوعی نشان می‌دهند، برای مثال، با اتخاذ فلسفه «اعتماد کن، اما راستی‌آزمایی کن».

افراد نسبت به هوش مصنوعی احساس نفرت دارند. آنها یا از همان ابتدا مدل‌های هوش مصنوعی را رد کرده‌اند، یا از کیفیت پاسخ‌های هوش مصنوعی ناامید شده‌اند که این موضوع باعث کاهش اعتماد و تعامل آنها در ادامه می‌شود.

مزایا:

• استفاده گسترده از قابلیت‌های هوش مصنوعی، با پتانسیل افزایش دقت (و بهره‌وری) در صورتی که دقت هوش مصنوعی از دقت افراد بیشتر باشد.

• می‌تواند به‌ویژه برای همکاران کم‌تجربه مفید باشد.

مزایا:

• افزایش دقت و بهره‌وری از طریق همکاری مؤثر انسان و هوش مصنوعی.

• امکان اصلاح خروجی‌های هوش مصنوعی بر اساس بازخورد کاربران.

• توسعه مستمر قابلیت‌های انسانی.

مزایا:

• ریسک کمتری از بروز خطاهای تصمیم‌گیری ناشی از هوش مصنوعی.

• حفظ توانمندی‌های تصمیم‌گیری انسانی.

ریسک‌ها:

• بروز خطاهای تصمیم‌گیری در مواردی که پاسخ‌های هوش مصنوعی دقیق نباشند و توسط افراد شناسایی نشوند.

• تضعیف تخصص حرفه‌ای برای افرادی که بخش‌های مرتبط با تصمیم‌گیری خود را به هوش مصنوعی واگذار می‌کنند.

ریسک‌ها:

• طراحی ضعیف تعاملات انسان و هوش مصنوعی، که منجر به عدم دستیابی به مزایای فوق می‌شود، حتی اگر افراد تا حدی به مدل‌های هوش مصنوعی اعتماد داشته باشند

ریسک‌ها:

• تعامل پایین، پتانسیل افزایش دقت یا بهره‌وری ناشی از پذیرش هوش مصنوعی را محدود می‌کند.

چگونه می‌توان تعادل مناسبی بین اعتماد و بدبینی سالم ایجاد کرد؟

ارائه اطلاعات به کاربران درباره دقت مورد انتظار یک دستیار هوش مصنوعی مولد، بر اساس اینکه دستیار در انجام وظایف مشابه چند بار درست عمل کرده است، یکی از راه‌های ایجاد این تعادل در طیف اعتماد به هوش مصنوعی است. چنین رتبه‌بندی‌هایی کاربران را تشویق می‌کند که پیش از اقدام، پاسخ‌ها را مرور و اعتبارسنجی کنند، به‌ویژه در موارد حساس و پرمخاطره.

در استراتژی دیگر، رابط کاربری می‌تواند به طور منظم کاربران را ترغیب کند که وظایف را به صورت دستی انجام دهند (مثلاً هر دهمین بار)، تا مهارت‌های پایه‌ای و مرتبط خود را تقویت کنند، در حالی که همچنان از پشتیبانی هوش مصنوعی بهره‌مند می‌شوند.

به عنوان مثال، بیمه‌گران که به یک دستیار هوش مصنوعی مولد برای مدیریت بیشتر پرونده‌های خود متکی هستند، ممکن است گاه‌به‌گاه برای بررسی دقیق اطلاعات پایه‌ای ترغیب شوند، پیش از آنکه به نتیجه‌گیری در ارزیابی خود بپردازند.

هوش مصنوعی مسئول چگونه انتظارات انسانی، به‌ویژه شکاف اعتماد به هوش مصنوعی، را برطرف می‌کند؟

اعتماد به هوش مصنوعی عامل تعیین‌کننده‌ای در تعامل کاربران با آن است. اما کسب اعتماد بستگی به این دارد که آیا ابزارهای هوش مصنوعی قابل فهم، قابل اعتماد و مطابق با انتظارات ما هستند و به این ترتیب اصول هوش مصنوعی مسئول را منعکس می‌کنند یا خیر. بدون این عناصر، کاربران ابزارهای هوش مصنوعی ممکن است از تعامل با آنها صرف‌نظر کنند. در واقع، کارمندان معمولاً در پذیرش توصیه‌های الگوریتمی تمایل ندارند؛ و سه نفر از هر پنج مدیر اظهار کرده‌اند که نسبت به اعتماد به سیستم‌های هوش مصنوعی محتاط هستند.

چگونه می‌توانیم اعتماد ایجاد کنیم؟

تحقیقات نشان می‌دهد که زمانی که یک فناوری جدید ناامیدکننده باشد، بازگرداندن اعتماد و جلب مشارکت مجدد کاربران به یک چالش تبدیل می‌شود. بنابراین، یکی از کلیدهای ایجاد اعتماد و تعامل پایدار، مدیریت مؤثر انتظارات کاربران است. به‌عنوان مثال، شرکت Swiss Re به‌تازگی Life Guide Scout را راه‌اندازی کرده است، که یک دستیار ارزیابی ریسک مبتنی بر هوش مصنوعی مولد است و برای راهنمای ارزیابی ریسک Life Guide طراحی شده است. در مرحله آزمایشی، ارتباطات بر شفافیت و مدیریت انتظارات متمرکز بود و به‌ویژه بر موارد زیر تأکید داشت:

منبع داده: ما به کاربران اطلاع دادیم که تمام داده‌ها صرفاً از Life Guide استخراج شده‌اند. همراه با هر پاسخ، Life Guide Scout پیوندهایی به بخش‌های مرتبط در Life Guide ارائه می‌داد تا کاربران بتوانند از شفافیت کامل در مورد منبع داده‌ها بهره‌مند شوند.

شریک توسعه: ما به همکاری خود با Microsoft OpenAI تأکید کردیم.

مرحله توسعه: به‌صراحت اعلام کردیم که در مرحله آزمایشی/بتا قرار داریم.

قابلیت‌ها و محدودیت‌ها: محدودیت‌های Life Guide Scout را به‌وضوح مشخص کردیم.

یک اعلامیه و درخواست ارائه بازخورد به‌وضوح مشخص کرد که هوش مصنوعی در این تعامل انسان-هوش مصنوعی نقشی مشورتی ایفا می‌کند.

نتیجه‌گیری

هوش مصنوعی با سرعت در حال تحول بخش بیمه عمر و سلامت L&H است و فرصت‌های جدیدی برای نوآوری و افزایش بهره‌وری ارائه می‌دهد. با این حال، همراه با پیشرفت هوش مصنوعی، چالش‌ها و ریسک‌های جدیدی نیز به وجود می‌آید، از جمله سوگیری، نادرستی، اطلاعات نادرست و مشکلات اخلاقی. برای ترویج استفاده‌ای قابل‌اعتماد و سودمند از هوش مصنوعی، شرکت‌های بیمه باید چارچوب هوش مصنوعی مسئول RAI را به‌کار گیرند تا توسعه و استفاده از سیستم‌های هوش مصنوعی را بر اساس اصول انصاف، شفافیت، پاسخگویی، استحکام و حریم خصوصی هدایت کنند.

هوش مصنوعی مسئول نه‌تنها به جنبه‌های فنی هوش مصنوعی می‌پردازد، بلکه شامل تعامل انسان-هوش مصنوعی و همسویی هوش مصنوعی با اهداف کسب‌وکار و ارزش‌های اجتماعی نیز می‌شود. با به‌کارگیری اصول RAI و بهره‌گیری از بینش‌های علم رفتاری، شرکت‌های بیمه می‌توانند به افزایش اعتماد و اطمینان کاربران نسبت به هوش مصنوعی کمک کنند و در نهایت نتایج بهتری برای مشتریان و جامعه ارائه دهند.




ما را در شبکه های اجتماعی دنبال کنید.

کانال تلگرام دیوان اقتصاد صفحه اینستاگرام دیوان اقتصاد
.
.
.
.