چگونه گوگل هنگام ساخت مدل های هوش مصنوعی مولد به عدالت سلامت فکر می کند

من پزشک شدم زیرا می‌دانستم که مراقبت‌های بهداشتی باید بهتر از آن چیزی باشد که خانواده‌ام تجربه می‌کردند، در حالی که ما برای مراقبت با کیفیت بهتر از پدرم در دوران رشد من مبارزه می‌کردیم. آن تجربه باعث شد کار کنم تا مطمئن شوم که همه می توانند به مراقبت هایی که با عزت و احترام ارائه می شود دسترسی داشته باشند.

به‌عنوان مدیر ارشد عدالت سلامت Google، من از نزدیک می‌بینم که چگونه فناوری‌های هوش مصنوعی پتانسیل شناسایی و رسیدگی به سوگیری‌های موجود در مراقبت‌های بهداشتی و پیشبرد عدالت در سلامت را دارند. اما اگر مسئولانه انجام نشود، این نوآوری‌ها همچنین پتانسیل تشدید نابرابری را دارند. برای اطمینان از اینکه این اتفاق نمی‌افتد، چهار راه را شناسایی کرده‌ایم که در مورد تعبیه عدالت سلامت در کارمان و پیشبرد هوش مصنوعی به روشی جسورانه و مسئولانه برای کمک به مردم برای داشتن یک زندگی سالم‌تر فکر می‌کنیم.

اتخاذ رویکردهای بنیادی برای تحقیقات حقوق صاحبان سهام

برای انعکاس تجربیات افراد و جوامع به حاشیه رانده شده تاریخی، ما ابتدا رویکردهای اساسی برابری سلامت – مانند تحقیقات مشارکتی مبتنی بر جامعه (CBPR) -” را در روش‌های طراحی و ارزیابی خود ادغام می‌کنیم. درک زمینه اجتماعی کاربرانمان مانند شرایط فرهنگی، تاریخی و اقتصادی به همان اندازه مهم است تا به ما کمک کند راه حل هایی بسازیم که برای همه بهتر کار کند. یکی از نمونه‌های ارائه سال‌ها تجربه ما در ساخت مدل‌های هوش مصنوعی عادلانه‌تر در محصولات، کاری است که با استفاده از هوش مصنوعی برای مشاهده رنگ پوست بیشتر انجام داده‌ایم، که به ما کمک کرده است ویژگی‌های دوربین را ایجاد کنیم که برای همه کارآمد باشد. درست کردن آن نیتی می خواهد، اما اشتباه گرفتن آن می تواند به راحتی منجر به انتشار سوگیری های ناعادلانه شود.

مطالب پیشنهادی  هنرمندان بومی آمریکا را در Chrome و ChromeOS جشن بگیرید

اولویت بندی بازنمایی متنوع در داده ها

از نظر تاریخی، تنوع در تحقیقات کارآزمایی بالینی وجود ندارد که گروه‌هایی از افراد به حاشیه رانده شده تاریخی را از یک گام مهم در پزشکی در هنگام یافتن راه‌های جدید برای پیشگیری، تشخیص یا درمان بیماری حذف می‌کند. به همین دلیل است که ما تلاش می‌کنیم تا فرآیند جمع‌آوری و مدیریت داده‌های خود را فراگیر و عادلانه کنیم، و عمیقاً در مورد فرآیند توسعه و ارزیابی مدل فکر کنیم، جایی که در نظر می‌گیریم چه داده‌هایی در یک مدل زبان بزرگ قرار می‌گیرد و چگونه عملکرد آن را ارزیابی کنیم. مسئله امروز این است که هیچ استانداردی در مورد ارائه متنوع در داده ها وجود ندارد، به همین دلیل است که ما با جامعه تحقیقاتی گسترده تر هوش مصنوعی برای شناسایی بهترین شیوه ها همکاری می کنیم. یکی از راه‌هایی که ما برای درک و درمان بهتر بیماری‌ها کار می‌کنیم، توالی‌یابی ژنومی است، اما نقشه‌ای که برای دهه‌ها از آن استفاده می‌کنیم، یک توالی ژنومی واحد است و نشان‌دهنده تنوع بشریت نیست. امروز، ما با مؤسسه ملی بهداشت (NIH) و سایرین بر روی پروژه Pangenome کار می کنیم تا دیدگاه خود را نسبت به کدی که همه ما را منحصراً انسان و متفاوت می سازد، گسترش دهیم. اولین نسخه Pangenome شامل 47 نفر از اجداد مختلف است و ما در حال همکاری با NIH برای رسیدن به هدفی در سال آینده 100 نفر با سکانس‌های با کیفیت بالا هستیم.

در نظر گرفتن عدالت سلامت در موارد استفاده در دنیای واقعی

استفاده تاریخی از داده های ناقص و مغرضانه می تواند خطر آسیب و سوگیری را در میان جمعیت های به حاشیه رانده شده در تاریخ تشدید کند. برای اصلاح این موضوع، باید به دقت در نظر بگیریم که چگونه یک سیستم هوش مصنوعی در عمل استفاده خواهد شد. پایه‌گذاری ارزیابی مدل‌های زبانی بزرگ (LLM) در موارد خاص استفاده در دنیای واقعی که می‌تواند برای انعکاس تجربیات جمعیت‌های به حاشیه رانده شده استفاده شود، عنصر مهمی در کاهش این مسائل و امیدواری افزایش برابری است. در سراسر Google، ما برای بهبود انصاف، کاهش خطر سوگیری و حرکت به سمت عدالت تلاش کرده‌ایم تا عملکرد مدل خود را ارتقا دهیم. برخی از این کار، که در مقاله Nature برجسته شده است، توضیح می دهد که چگونه این رویکردها را برای Med-PaLM LLM خود در حوزه پزشکی به کار می بریم.

مطالب پیشنهادی  Zimbra 0-day برای سرقت داده های ایمیل از سازمان های دولتی استفاده می شود

تقویت همکاری فراگیر

جایی که یک فرد زندگی می کند، کار می کند یا به مدرسه می رود می تواند بر سلامتی او تأثیر بگذارد. برای ایجاد مدل‌های مفید هوش مصنوعی، باید بتوانیم این محرک‌های اجتماعی را بشناسیم و درک کنیم. انجام این کار به همکاری ما با کارشناسان در زمینه های مختلف – مانند علوم اجتماعی و رفتاری، سیاست گذاری یا آموزش بستگی دارد. با همکاری تیم مسئول هوش مصنوعی Google و برنامه میزگرد تحقیقاتی عادلانه هوش مصنوعی (EARR) آنها، می‌توانیم رویکردی چند رشته‌ای برای درک تأثیرات هوش مصنوعی بر جوامع به حاشیه رانده شده تاریخی داشته باشیم و این بینش‌ها را در کار خود به کار ببریم.

کار ما در تقاطع هوش مصنوعی و برابری سلامت یک سفر مداوم است که می دانیم به مسئولیت و مسئولیت پذیری نیاز دارد. ما باید عمداً این تلاش‌ها را حول جمعیت‌های به حاشیه رانده شده متمرکز کنیم تا راه‌حل‌هایی بسازیم که مراقبت‌های بهداشتی را عادلانه‌تر کرده و به سوگیری‌های تاریخی رسیدگی کنیم. این کار زمان و نیت می خواهد. هدف ما حرکت سریع نیست، بلکه رسیدن به آن است. جایگزین یک گزینه نیست.

سئو PBN | خبر های جدید سئو و هک و سرور