AI Blowback Angst گریبان سرمایه گذاران ESG را می گیرد که روی فناوری شرط بندی می کنند | دانش مرکز داده

(بلومبرگ) – مدیران صندوق ESG که به فناوری های بزرگ به عنوان یک شرط بندی کم کربن و با بازده بالا روی آوردند، به طور فزاینده ای نسبت به آزمایش این بخش با هوش مصنوعی نگران هستند.

مارسل استوتزل، مدیر پورتفولیوی مستقر در لندن در Fidelity International گفت که قرار گرفتن در معرض هوش مصنوعی اکنون یک “ریسک کوتاه مدت برای سرمایه گذاران” است.

استوتزل گفت که “نگران است که با هوش مصنوعی مواجه شویم”، که او آن را وضعیتی توصیف می کند که در آن چیزی غیرمنتظره باعث کاهش معنی دار بازار می شود. او گفت: “فقط یک حادثه طول می کشد تا مشکلی پیش بیاید و تاثیر مادی می تواند قابل توجه باشد.”

نمونه‌هایی که استوتزل می‌گوید مایه نگرانی هستند، جت‌های جنگنده با سیستم‌های هوش مصنوعی خودآموز هستند. فیدلیتی اکنون در میان مدیران صندوق‌هایی است که با شرکت‌هایی که چنین فناوری‌هایی را توسعه می‌دهند صحبت می‌کنند تا درباره ویژگی‌های ایمنی مانند «سوئیچ کشتن» صحبت کنند که اگر روزی جهان از خواب بیدار شود که «سیستم‌های هوش مصنوعی به طرز چشمگیری خراب می‌شوند» فعال می‌شود.

صنعت سرمایه گذاری ESG ممکن است بیشتر از سایرین در معرض خطرات این چنینی قرار گیرد، پس از اینکه به طور گسترده وارد فناوری شد. بر اساس اطلاعات بلومبرگ، صندوق‌هایی که به‌عنوان هدفی کاملاً زیست‌محیطی، اجتماعی و حکمرانی خوب ثبت شده‌اند، بیش از هر بخش دیگری دارایی‌های فناوری هستند. و بزرگترین صندوق قابل معامله ESG جهان تحت سلطه فناوری است که توسط Apple Inc، Microsoft Corp، Amazon.com Inc. و Nvidia Corp هدایت می شود.

این شرکت ها اکنون در خط مقدم توسعه هوش مصنوعی هستند. تنش ها بر سر مسیری که صنعت باید در پیش بگیرد – و سرعتی که باید با آن حرکت کند – اخیراً در معرض دید عموم قرار گرفته است. در این ماه، OpenAI، شرکتی که یک سال پیش با راه‌اندازی ChatGPT جهان را تکان داد، اخراج کرد و سپس به سرعت مدیر اجرایی خود، سم آلتمن، را دوباره به کار گرفت و جنجالی از حدس و گمان‌ها به راه انداخت.

با توجه به خطرات بالقوه اجتماعی، ظاهراً اختلافات داخلی در مورد میزان جاه‌طلبی OpenAI شعله‌ور شده بود. بازگرداندن آلتمن، شرکت را در مسیر پیگیری برنامه‌های رشد خود از جمله تجاری‌سازی سریع‌تر هوش مصنوعی قرار می‌دهد.

اپل گفته است که قصد دارد در زمینه هوش مصنوعی محتاطانه عمل کند و تیم کوک، مدیر عامل شرکت در ماه مه گفت که “تعدادی از مشکلات وجود دارد که باید در مورد این فناوری مرتب شوند”. و شرکت‌هایی از جمله مایکروسافت، آمازون، شرکت آلفابت و متا پلتفرم‌ها موافقت کرده‌اند که پادمان‌های داوطلبانه را برای به حداقل رساندن سوء استفاده و سوگیری در هوش مصنوعی اعمال کنند.

استوتزل گفت که او کمتر نگران خطرات ناشی از استارت آپ های کوچک هوش مصنوعی است تا خطراتی که در کمین غول های فناوری جهان هستند. او گفت: «بزرگ‌ترین شرکت‌ها می‌توانند بیشترین آسیب را وارد کنند.

سایر سرمایه گذاران نیز این نگرانی ها را به اشتراک می گذارند. به گفته سخنگوی این طرح 248 میلیارد دلاری، سیستم بازنشستگی کارکنان شهر نیویورک، یکی از بزرگ‌ترین برنامه‌های بازنشستگی عمومی ایالات متحده، گفت که به طور فعال نحوه استفاده شرکت‌های پرتفوی از هوش مصنوعی را تحت نظر دارد. Generation Investment Management، شرکتی که توسط معاون رئیس جمهور سابق ایالات متحده آل گور بنیانگذاری شده است، به مشتریان خود گفت که تحقیقات در زمینه هوش مصنوعی مولد را افزایش می دهد و روزانه با شرکت هایی که در آنها سرمایه گذاری می کند در مورد خطرات – و همچنین فرصت هایی که این فناوری نشان می دهد صحبت می کند.

و صندوق ثروت 1.4 تریلیون دلاری نروژ به هیئت مدیره و شرکت ها گفته است که در مورد خطرات “شدید و ناشناخته” ناشی از هوش مصنوعی جدی بگیرند.

بر اساس برآوردهای ارائه شده توسط تحلیلگران UBS Group AG، زمانی که ChatGPT OpenAI در نوامبر گذشته راه اندازی شد، به سرعت به سریع ترین برنامه اینترنتی در حال رشد تاریخ تبدیل شد و تا ژانویه به 13 میلیون کاربر روزانه رسید. در مقابل آن پس‌زمینه، غول‌های فناوری که فناوری مشابهی را توسعه می‌دهند یا از آن حمایت می‌کنند، شاهد افزایش قیمت سهام خود در سال جاری بوده‌اند.

به گفته کریستال گنگ، تحلیلگر ESG در BNP Paribas Asset Management در هنگ کنگ، فقدان مقررات یا هر گونه داده تاریخی معنادار در مورد نحوه عملکرد دارایی های هوش مصنوعی در طول زمان باعث نگرانی است.

او گفت: «ما ابزار یا روشی برای تعیین کمیت ریسک نداریم. یکی از روش‌هایی که BNP سعی می‌کند پیامدهای اجتماعی بالقوه هوش مصنوعی را تخمین بزند این است که از شرکت‌های نمونه کار بپرسد که به دلیل ظهور فناوری‌هایی مانند ChatGPT ممکن است چند شغل کاهش یابد. گنگ گفت: “من یک شرکت را ندیده ام که بتواند شماره مفیدی به من بدهد.”

جوناس کرون، مدیر ارشد وکالت در Trillium Asset Management مستقر در بوستون، که به اپل و فیس بوک متا کمک کرد تا حریم خصوصی را در منشور هیئت مدیره خود بگنجانند، شرکت های فناوری را تحت فشار قرار داده است تا کار خود را در زمینه هوش مصنوعی توضیح دهند. در اوایل سال جاری، Trillium قطعنامه سهامداران خود را با آلفابت مادر گوگل ارسال کرد و از آن خواست جزئیات بیشتری در مورد الگوریتم های هوش مصنوعی خود ارائه دهد.

کرون گفت هوش مصنوعی یک ریسک حاکمیتی برای سرمایه گذاران است و خاطرنشان کرد که حتی افراد داخلی از جمله آلتمن OpenAI از قانونگذاران خواسته اند تا مقرراتی را وضع کنند.

نگرانی این است که بدون محدودیت، هوش مصنوعی می تواند تبعیض را در زمینه هایی مانند مراقبت های بهداشتی تقویت کند. و جدای از پتانسیل هوش مصنوعی برای تقویت تعصبات نژادی و جنسیتی، نگرانی هایی در مورد تمایل آن برای فعال کردن سوء استفاده از داده های شخصی وجود دارد.

در همین حال، بر اساس پایگاه داده ای که سوء استفاده از این فناوری را دنبال می کند، تعداد حوادث و جنجال های هوش مصنوعی از سال 2012 تا کنون 26 برابر افزایش یافته است.

سرمایه گذاران در مایکروسافت، اپل و گوگل آلفابت قطعنامه هایی را ارائه کرده اند که خواستار شفافیت بیشتر الگوریتم های هوش مصنوعی هستند. صندوق شاخص سهام AFL-CIO، که بر 12 میلیارد دلار حقوق بازنشستگی اتحادیه نظارت می کند، از شرکت هایی مانند Netflix Inc. و Walt Disney Co. خواسته است تا در مورد اینکه آیا دستورالعمل هایی را برای محافظت از کارگران، مشتریان و مردم در برابر آسیب های هوش مصنوعی اتخاذ کرده اند یا خیر، گزارش دهند.

کارین زلنکو، مدیر استراتژی های سرمایه در AFL-CIO در واشنگتن گفت: نقاط نگران کننده شامل تبعیض یا سوگیری علیه کارکنان، اطلاعات نادرست در طول انتخابات سیاسی و اخراج گسترده کارکنان ناشی از اتوماسیون است. او افزود که نگرانی بازیگران و نویسندگان هالیوود در مورد هوش مصنوعی در اعتصابات پرحاشیه امسال آنها نقش داشته است.

او گفت: “این فقط آگاهی از اهمیت این موضوع در احتمالاً هر تجارتی را افزایش داد.”