به لطف Danube3، شناسایی تقلبی‌های هوش مصنوعی آسان‌تر شد

وکیل سابق دونالد ترامپ، مایکل کوهن، به طرز بدنامی از هوش مصنوعی برای کمک به تهیه یک سند قانونی ارسال شده به یک قاضی فدرال استفاده کرد. هوش مصنوعی مورد استفاده، Google’s Bard (اکنون با نام جدید Gemini) ساخته شده است پرونده های جعلی دادگاه.

و این حتی بدترین آن هم نیست. دو وکلای نیویورک تقریباً با ارسال یک خلاصه حقوقی حاوی توهمات ChatGPT، حرفه خود را اژدر کردند. اما این اشتباهات قانونی تنها بخش کوچکی از مشکل است. ما در دریایی از محتوای تولید شده توسط هوش مصنوعی غرق می شویم و عواقب آن بسیار جدی تر از چند وکیل شرمنده است.

در مورد آن فکر کنید: چه اتفاقی می افتد وقتی مقاله ای که یک دانشجو را وارد دانشکده پزشکی کرد در واقع توسط GPT-4 نوشته شد؟ یا زمانی که تحلیلی که باعث شد کسی در یک شرکت حقوقی عالی شغل پیدا کند توسط کلود ایجاد شد؟ ما می‌توانیم به آینده‌ای نگاه کنیم که در آن پزشکان، وکلا، و حتی خلبان‌های خطوط هوایی راه خود را در امتحانات مهم با دستیار هوش مصنوعی تقلب کنند.

مطمئناً مؤسسات موجود کامل نیستند. حتی در مدارس برتر پزشکیاستادان می گویند بسیاری از دانشجویان فاقد دانش اولیه هستند. اما هوش مصنوعی می تواند این را تشدید کند بحران شایستگی. این فقط در مورد یکپارچگی تحصیلی نیست – بلکه در مورد ایمنی عمومی و پایه های شایستگی حرفه ای است.

و به همین جا ختم نمی شود. روزنامه نگاری که قبلاً با اتهامات مربوط به اخبار جعلی مورد ضرب و شتم قرار گرفته است، با یک …

Source link