فناوریهای هوش مصنوعی (AI) و یادگیری ماشین مرتبط (ML) به طور فزایندهای در دنیای اطراف ما تأثیرگذار هستند، و ضروری است که تأثیرات بالقوه بر جامعه و افراد را در تمام جنبههای فناوری که ایجاد میکنیم در نظر بگیریم. برای این اهداف، تیم Context in AI Research (CAIR) روشهای جدید هوش مصنوعی را در زمینه کل خط لوله هوش مصنوعی توسعه میدهد: از داده ها تا بازخورد کاربر نهایی. خط لوله ساخت یک سیستم هوش مصنوعی معمولاً با شروع می شود داده ها مجموعه و به دنبال آن طراحی a مدل برای اجرا بر روی آن داده ها، گسترش از مدل در دنیای واقعی، و در نهایت، تدوین و ترکیب بازخورد انسانی. کار تیم CAIR که در فضای سلامت سرچشمه گرفته و اکنون به مناطق دیگر گسترش یافته است، بر هر جنبه ای از این خط لوله تأثیر می گذارد. در حالی که در ساخت مدل تخصص داریم، تمرکز ویژهای بر روی سیستمهای ساختمانی با مسئولیتپذیری، از جمله عدالت، استحکام، شفافیت و گنجاندن داریم.
![]() |
داده ها
تمرکز تیم CAIR بر درک دادههایی است که سیستمهای ML بر اساس آنها ساخته شدهاند. بهبود استانداردهای شفافیت مجموعه داده های ML در کار ما بسیار مؤثر است. اول، ما از چارچوبهای مستندسازی برای توضیح دادهها و ویژگیهای مدل بهعنوان راهنمایی در توسعه دادهها و تکنیکهای مستندسازی مدل – برگههای داده برای مجموعههای داده و کارتهای مدل برای گزارشدهی مدل، استفاده میکنیم.
به عنوان مثال، مجموعه داده های سلامت بسیار حساس هستند و در عین حال می توانند تأثیر زیادی داشته باشند. به همین دلیل، ما Healthsheets را توسعه دادیم، یک اقتباس بهداشتی از یک Datasheet. انگیزه ما برای توسعه یک برگه سلامت خاص در محدودیت های چارچوب های نظارتی موجود برای هوش مصنوعی و سلامت نهفته است. تحقیقات اخیر نشان می دهد که مقررات و استانداردهای حریم خصوصی داده ها (به عنوان مثال، HIPAA، GDPR، قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا) جمع آوری، مستندسازی و استفاده اخلاقی از داده ها را تضمین نمی کند. Healthsheets با هدف پر کردن این شکاف در تجزیه و تحلیل مجموعه داده های اخلاقی است. توسعه برگه سلامت با همکاری بسیاری از سهامداران در نقش های شغلی مرتبط، از جمله بالینی، قانونی و نظارتی، اخلاق زیستی، حریم خصوصی و محصول انجام شد.
علاوه بر این، ما بررسی کردیم که چگونه برگههای داده و برگه سلامت میتوانند به عنوان ابزارهای تشخیصی برای نشان دادن محدودیتها و نقاط قوت مجموعههای داده عمل کنند. هدف ما شروع گفتگو در جامعه و تطبیق Healthsheets برای سناریوهای پویا مراقبت های بهداشتی در طول زمان بود.
برای تسهیل این تلاش، ما به ابتکار STANDING Together ملحق شدیم، کنسرسیومی که هدف آن توسعه استانداردهای بینالمللی و مبتنی بر اجماع برای مستندسازی تنوع و نمایندگی در مجموعه دادههای سلامت و ارائه راهنمایی در مورد چگونگی کاهش خطر سوگیری که به آسیب و نابرابری سلامت تبدیل میشود، ارائه میکند. . بخشی از این مشارکت بینالمللی و بینرشتهای که شامل سازمانهای آکادمیک، بالینی، نظارتی، سیاستگذاری، صنعت، بیمار و سازمانهای خیریه در سراسر جهان میشود، ما را قادر میسازد تا در گفتگو در مورد مسئولیت در هوش مصنوعی برای مراقبتهای بهداشتی در سطح بینالمللی شرکت کنیم. بیش از 250 ذینفع از 32 کشور در اصلاح استانداردها مشارکت داشته اند.
![]() |
برگه های سلامت و ایستادن با هم: به سمت اسناد و استانداردهای داده های سلامت. |
مدل
هنگامی که سیستمهای ML در دنیای واقعی مستقر میشوند، ممکن است به روشهای مورد انتظار رفتار نکنند و پیشبینیهای ضعیفی در زمینههای جدید انجام دهند. چنین شکست هایی می تواند به دلایل بی شماری رخ دهد و می تواند عواقب منفی به خصوص در زمینه مراقبت های بهداشتی داشته باشد. هدف کار ما شناسایی موقعیتهایی است که در آن رفتار مدل غیرمنتظره ممکن است کشف شود، قبل از اینکه به یک مشکل اساسی تبدیل شود، و عواقب غیرمنتظره و ناخواسته را کاهش دهیم.
بسیاری از کار مدلسازی تیم CAIR بر شناسایی و کاهش زمانی که مدلها نامشخص هستند، متمرکز است. ما نشان میدهیم که مدلهایی که بر روی دادههای جمعآوریشده از یک حوزه آموزشی به خوبی عمل میکنند، تحت تغییر توزیع به همان اندازه قوی یا منصف نیستند، زیرا مدلها در میزان تکیه آنها به همبستگیهای جعلی متفاوت هستند. این امر خطری را برای کاربران و متخصصان به همراه دارد زیرا پیشبینی بیثباتی مدل با استفاده از روشهای ارزیابی مدل استاندارد میتواند دشوار باشد. ما نشان دادهایم که این نگرانی در حوزههای مختلفی از جمله بینایی رایانه، پردازش زبان طبیعی، تصویربرداری پزشکی و پیشبینی از سوابق سلامت الکترونیکی ایجاد میشود.
ما همچنین نشان دادهایم که چگونه از دانش مکانیسمهای علّی برای تشخیص و کاهش مسائل مربوط به عدالت و استحکام در زمینههای جدید استفاده کنیم. دانش ساختار علّی به پزشکان اجازه میدهد تا تعمیمپذیری ویژگیهای انصاف را تحت تغییر توزیع در تنظیمات پزشکی دنیای واقعی پیشبینی کنند. علاوه بر این، با بررسی قابلیت مسیرهای علی خاص یا «میانبرها» برای معرفی سوگیری در سیستمهای ML، ما نشان میدهیم که چگونه مواردی را شناسایی کنیم که یادگیری میانبر منجر به پیشبینیهایی در سیستمهای ML میشود که ناخواسته به ویژگیهای حساس (مانند سن، جنس) وابسته هستند. ، نژاد). ما نشان دادهایم که چگونه از نمودارهای غیر چرخهای جهتدهی علّی برای تطبیق سیستمهای ML با محیطهای متغیر تحت اشکال پیچیده تغییر توزیع استفاده کنیم. تیم ما در حال حاضر در حال بررسی این موضوع است که چگونه یک تفسیر علّی از اشکال مختلف سوگیری، از جمله سوگیری انتخاب، سوگیری برچسب، و خطای اندازهگیری، باعث ایجاد انگیزه در طراحی تکنیکهایی برای کاهش تعصب در طول توسعه و ارزیابی مدل میشود.
![]() |
![]() |
آموزش میانبر: برای برخی از مدل ها، سن ممکن است به عنوان میانبر در طبقه بندی در هنگام استفاده از تصاویر پزشکی عمل کند. |
تیم CAIR بر روی توسعه روششناسی برای ایجاد مدلهای فراگیرتر به طور گسترده تمرکز دارد. به عنوان مثال، ما همچنین روی طراحی سیستمهای مشارکتی کار کردهایم، که به افراد اجازه میدهد زمانی که یک سیستم ML پیشبینی میکند، ویژگیهای حساس مانند نژاد را افشا کنند یا خیر. ما امیدواریم که تحقیقات روششناختی ما تأثیر مثبتی بر درک اجتماعی از فراگیری در توسعه روش AI داشته باشد.
گسترش
هدف تیم CAIR ساخت فناوری است که زندگی همه مردم را از طریق استفاده از فناوری دستگاه های تلفن همراه بهبود می بخشد. هدف ما کاهش رنج ناشی از شرایط بهداشتی، رسیدگی به نابرابری سیستمیک و فعال کردن جمعآوری دادههای مبتنی بر دستگاه شفاف است. از آنجایی که فناوری مصرفکننده، مانند ردیابهای تناسب اندام و تلفنهای همراه، در جمعآوری دادهها برای سلامتی مرکزی میشوند، ما استفاده از این فناوریها را در زمینه بیماریهای مزمن، بهویژه برای ام اس (MS) بررسی کردیم. ما مکانیسمها و پیشبینیهای جدید جمعآوری دادهها را توسعه دادیم که امیدواریم در نهایت انقلابی در مدیریت بیماری مزمن بیمار، آزمایشهای بالینی، معکوسهای پزشکی و توسعه دارو ایجاد کند.
ابتدا، ما پلتفرم منبع باز FDA MyStudies را گسترش دادیم که برای ایجاد برنامههای مطالعات بالینی استفاده میشود تا انجام مطالعات خود و جمعآوری دادههای با کیفیت خوب را برای هر کسی آسانتر کنیم، به روشی مطمئن و ایمن. پیشرفتهای ما شامل تنظیمات پیکربندی صفر میشود، به طوری که محققان میتوانند نمونه اولیه مطالعه خود را در یک روز، تولید اپلیکیشنهای چند پلتفرمی از طریق استفاده از Flutter و مهمتر از همه، تأکید بر دسترسی به طوری که صدای همه بیماران شنیده شود، انجام دهند. ما مشتاقیم اعلام کنیم که این اثر اکنون به عنوان یک افزونه برای پلتفرم اصلی FDA-Mystudies منبع باز شده است. شما می توانید از امروز شروع به تنظیم مطالعات خود کنید!
برای آزمایش این پلتفرم، ما یک برنامه اولیه ساختیم که آن را MS Signals می نامیم که از نظرسنجی برای ارتباط با بیماران در یک محیط جدید مصرف کننده استفاده می کند. ما با انجمن ملی ام اس همکاری کردیم تا شرکتکنندگانی را برای مطالعه تجربه کاربری برای این برنامه استخدام کنیم، با هدف کاهش نرخ ترک تحصیل و بهبود بیشتر پلتفرم.
![]() |
اسکرین شات های برنامه MS Signals. ترک کرد: صفحه خوش آمدگویی را مطالعه کنید. درست: پرسشنامه. |
پس از جمعآوری دادهها، محققان میتوانند به طور بالقوه از آن برای پیشبرد تحقیقات ML در MS استفاده کنند. در یک مطالعه جداگانه، ما یک همکاری تحقیقاتی با دپارتمان عصبشناسی دوک ایجاد کردیم و نشان دادیم که مدلهای ML میتوانند با استفاده از دادههای جمعآوریشده مداوم از برنامههای تلفن همراه، بروز علائم با شدت بالا را در عرض سه ماه بهطور دقیق پیشبینی کنند. نتایج نشان میدهد که مدلهای آموزشدیده میتوانند توسط پزشکان برای ارزیابی مسیر علائم شرکتکنندگان MS مورد استفاده قرار گیرند، که ممکن است به تصمیمگیری برای اجرای مداخلات کمک کند.
تیم CAIR در استقرار بسیاری از سیستمهای دیگر برای استفاده داخلی و خارجی مشارکت داشته است. به عنوان مثال، ما همچنین با Learning Ally برای ایجاد یک سیستم توصیه کتاب برای کودکان دارای ناتوانی های یادگیری، مانند نارساخوانی، همکاری کرده ایم. ما امیدواریم که کار ما تأثیر مثبتی بر توسعه محصول آینده داشته باشد.
بازخورد انسانی
از آنجایی که مدلهای ML در سراسر جهان توسعهیافته فراگیر میشوند، به راحتی میتوان صداها را در کشورهای کمتر توسعهیافته پشت سر گذاشت. اولویت تیم CAIR پر کردن این شکاف، توسعه روابط عمیق با جوامع و همکاری با یکدیگر برای رسیدگی به نگرانیهای مرتبط با ML از طریق رویکردهای جامعه محور است.
یکی از راههایی که ما این کار را انجام میدهیم از طریق همکاری با سازمانهای مردمی برای ML است، مانند Sisonkebiotik، یک جامعه باز و فراگیر از محققان، پزشکان و علاقهمندان در تقاطع ML و مراقبتهای بهداشتی که با هم کار میکنند تا ظرفیتسازی و ابتکارات تحقیقاتی را به پیش ببرند. آفریقا ما با همکاری جامعه Sisonkebiotik برای جزئیات محدودیتهای رویکردهای تاریخی از بالا به پایین برای سلامت جهانی کار کردیم، و روشهای مکمل مبتنی بر سلامت، بهویژه آنهایی که در جوامع مشارکتی مردمی (GPCs) هستند را پیشنهاد کردیم. ما به طور مشترک چارچوبی برای ML و سلامت جهانی ایجاد کردیم، و یک نقشه راه عملی برای راه اندازی، رشد و نگهداری GPC ها بر اساس مقادیر مشترک در GPC های مختلف مانند Masakhane، Sisonkebiotik و Ro’ya ترسیم کردیم.
ما با ابتکارات باز برای درک بهتر نقش، ادراکات و موارد استفاده از هوش مصنوعی برای سلامت در کشورهای غیر غربی از طریق بازخورد انسانی، با تمرکز اولیه در آفریقا، درگیر هستیم. ما همراه با NLP غنا، به جزئیات نیاز به درک بهتر انصاف الگوریتمی و سوگیری در سلامت در زمینههای غیر غربی کار کردهایم. ما اخیراً مطالعه ای را برای گسترش این کار با استفاده از بازخورد انسانی راه اندازی کرده ایم.
![]() |
تعصبات در طول خط لوله ML و ارتباط آنها با محورهای نابرابری مبتنی بر بافت آفریقا. |
تیم CAIR متعهد به ایجاد فرصت هایی برای شنیدن دیدگاه های بیشتر در توسعه هوش مصنوعی است. ما با Sisonkebiotik همکاری کردیم تا کارگاه آموزشی Data Science for Health را در Deep Learning Indaba 2023 در غنا برگزار کنیم. صدای همه برای توسعه آینده بهتر با استفاده از فناوری هوش مصنوعی بسیار مهم است.
سپاسگزاریها
از نگار رستم زاده، استفان پفول، سابحراجیت روی، دیانا مینکو، چینتان گیت، مرسی آسیدو، امیلی سالکی، الکساندر دامور، جسیکا شروف، چیراگ ناگپال، الطایب احمد، لو پرولیف، ناتالی هریس، محمد بن هوائی تشکر می کنیم. هاچینسون، اندرو اسمارت، آوا دینگ، ماهیما پوشکارنا، سانمی کویجو، کری کائوئر، دو هی پارک، لی هارتسل، جنیفر گریوز، برک اوستون، هیلی جورن، تیمنیت گبرو و مارگارت میچل به دلیل مشارکت و نفوذشان و همچنین دوستان بسیار ما و همکاران در Learning Ally، National MS Society، Duke University Hospital، STANDING Together، Sisonkebiotik، و Masakhane.