حقوق بشر که قبلاً به رسمیت شناخته شده بود، مانند حفظ حریم خصوصی حتی درونی ترین افکار ما، اگر در نظر نگیریم که چگونه از خود در برابر هوش مصنوعی مدیریت شده توسط شرکت ها و دولت ها محافظت کنیم، به مصنوع تاریخ تبدیل خواهد شد.
محققان از هوش مصنوعی برای رمزگشایی تصاویر و رشته های متنی که داوطلبان می بینند و همچنین داستان هایی که می شنوند یا تصور می کنند استفاده کرده اند.
این فناوری مبتنی بر دستگاههای EEG، MEG و fMRI هنوز نوپا است. با این وجود، تکامل سریع آن بر نیاز مبرم به تأکید مجدد بر آزادی و کرامت انسان، به ویژه در مورد ذهن خوانی و حریم خصوصی، تأکید می کند.
حریم خصوصی افکار ما در خط است
در آینده ای نه چندان دور، کلاه های فویل می توانند از سر ناچاری به یک روند مد تبدیل شوند. این در صورتی است که استانداردها و شیوه های مناسب هوش مصنوعی را در جای خود قرار ندهیم.
دو رویکرد اصلی برای مدیریت خطر ناشی از نفوذ فناوری ذهن خوانی در افکار ما وجود دارد و آنها مکمل یکدیگر هستند.
روش اول، اخلاق جاسازی شده نام دارد که استدلال اخلاقی را به علم و فناوری رایانه می آورد.
این ممکن است به طرق مختلف کار کند. برای مثال، شاید شرکتها دپارتمانهای اخلاقی ایجاد میکنند تا مراقب باشند که ملاحظات اخلاقی به عنوان بخشی از فرآیند راهاندازی محصولات جدید یا طراحی نرمافزار جدید در نظر گرفته شود. (این فلسفه هدفی دارد…