حقایق ناراحت کننده ای که وقتی ابزارهای AI از خطوط اخلاقی عبور کردند کشف کردم

به تازگی ، من در حال بررسی تولید تصویر Google Gemini برای پروژه شخصی خود بودم – طراحی آثار هنری سفارشی برای وبلاگ خود. در عرض چند دقیقه ، من یک منظره علمی تخیلی خیره کننده داشتم-اما متوجه چیزی نگران کننده شدم. این تصویر شامل عناصر معماری بود که تقریباً با ویژگی های منحصر به فرد یک ساختمان نمادین یکسان بودند. من از چیزی مربوط به آن ساختمان خواسته نشده بودم. تصادفی؟ تولید مثل غیر عمدی؟ آن لحظه به من رسید: قدرت تولید AI باورنکردنی است ، اما اخلاق آن یک میدان مین است.

در سال 2025 ، با ابزارهایی مانند Chatgpt ، Dall-E ، Github Copilot ، Midjourney 5.2 ، Patable Diffusion 3.5 ، Anthropic’s Claude 3.5 ، Google’s Gemini 2.0 ، Meta’s Llama 3.1 ، Mistral Large 2 ، و Xai’s Grok 3 ، من شخصاً چند مورد از ابزارهای AI Generative Ai را آزمایش کردم ، با دیدن وعده های خود و پراد خود.

این چیزی است که من آموخته ام – Enterprises در حال اتخاذ ابزارهای هوش مصنوعی با سرعت حیرت انگیز است ، با این که گارتنر پیش بینی می کند که بیش از 80 ٪ AI تولید کننده را تا سال 2026 مستقر کند ، از کمتر از 5 ٪ در سال 2023. با این حال ، گزارش های Deloitte 2024 نشان می دهد که حاکمیت ، از جمله سیاست های اخلاق ، بسیاری از آنها برای بسیاری از موارد ، با رهبری مدیریت ریسک ها یک چالش باقی مانده است. بیایید به چالش های اخلاقی که شاهد آن بوده ام و چگونه ممکن است با آنها مقابله کنیم ، شیرجه بزنیم.

از خروجی های مغرضانه گرفته تا نگرانی های مالکیت معنوی: آنچه من دیده ام …

Source link