هوش مصنوعی قابل توضیح چیست؟ | هکر ظهر

عکس پروفایل Modzy Hacker Noon

@دنجمد روز

یک بستر نرم افزاری برای سازمان ها و توسعه دهندگان برای استقرار ، نظارت و دریافت ارزش از AI – در مقیاس مسئولانه.

هوش مصنوعی قابل توضیح و هوش مصنوعی قابل تفسیر به عنوان روش های جدید اعتماد سازی در تصمیم گیری های مجهز به هوش مصنوعی پدید آمده اند. تفسیر مدل ، درجه ای است که انسان می تواند علت تصمیم گیری شده توسط مدل را درک کند [1].

وقتی یک مدل تصمیم می گیرد ، باید دلیلی داشته باشد ، اما آیا دلیل آن “منطقی” است یا برای انسان قابل توضیح است؟ برای مدلهای ساده تجزیه و تحلیل نحوه تصمیم گیری کار ساده ای است ، اما برای مدلهای پیچیده کار دشواری است.

آنچه باید درباره هوش مصنوعی قابل توضیح بدانید

ساخت یک مدل پیچیده می تواند چالش برانگیز باشد. بدون دقت پیش بینی زیاد ، نمی گوییم که یک مدل خوب است ، اما حتی اگر ما یک مدل کاملاً آموزش دیده با 100٪ دقت پیش بینی داشته باشیم ، آیا به این مدل اعتماد خواهیم کرد؟

تصور کنید ما بر اساس علائم و نتایج آزمایشگاهی مدلی داریم که پیش بینی می کند آیا بیمار در معرض خطر سرطان است.

علائم اولیه سرطان به سختی قابل تشخیص است و ممکن است یک پزشک بخواهد از یک مدل برای تکمیل تجربیات خود برای شناسایی بیماران در معرض خطر ابتلا به سرطان استفاده کند.

اگر به بیمار گفته شود که به سرطان مبتلا می شود اما سرانجام به آن مبتلا نمی شود (پیش بینی مثبت کاذب) ، این امر هم به سلامت روانی بیمار آسیب می زند و هم …