شما در فید X خود پیمایش می کنید و یک مانیفست سیاسی با برداشتی تحریک آمیز از سیاست آب و هوا می بینید. منطقی است، پرشور است و هزاران بازتوییت به همراه دارد. بعداً متوجه می شوید که اصلاً توسط یک سیاستمدار یا حتی یک انسان نوشته نشده است. در عوض، این مدل توسط برخی از مدلهای هوش مصنوعی قدرتمند ایجاد شد – یک مدل زبان که برای پیوند کلمات بر اساس الگوهایی که در بخشهای وسیعی از اینترنت مشاهده کرده است، آموزش دیده است. آیا این احساس شما را نسبت به مانیفست تغییر می دهد؟ آیا باید آن را؟ و در اینجا بحث شکن است: آیا این «سخنرانی» به همان شکلی است که گویی یک انسان آن را نوشته است؟
تشخیص مرز بین بیان انسان محور و محتوای تولید شده توسط ماشین سخت تر و سخت تر می شود. مدلهای هوش مصنوعی مولد مانند GPT-4 OpenAI یا Gemini گوگل فقط کلمات کلیدی یا پاسخهای ساده را بیرون نمیآورند، بلکه روایتهای کاملی را ایجاد میکنند، استدلالهایی طراحی میکنند و گهگاه باعث ایجاد اختلاف میشوند. آنها می توانند شعر بنویسند، پیش نویس طومارها یا حتی محتوای تحریک آمیز تولید کنند. و این یک سوال کنجکاو – و کمی ناراحت کننده – ایجاد می کند: آیا خروجی آنها واقعا “گفتار” است؟ اگر چنین است، آیا آن سخنرانی از همان حمایتهای قانونی برخوردار است که ما در مورد بیان انسان اعمال میکنیم؟ یا اینکه آیا محتوای تولید شده توسط هوش مصنوعی باید با قوانین جداگانه در دسته بندی خاص خود قرار گیرد؟
بیایید بررسی کنیم …