هنگامی که جاستین در اوایل سال جاری در محل کار خود از ChatGPT استفاده کرد، از مفید بودن آن راضی بود. یک دانشمند محقق در یک شرکت بیوتکنولوژی در منطقه بوستون، او از چت بات خواسته بود تا یک پروتکل آزمایش ژنتیکی ایجاد کند – کاری که می تواند ساعت ها طول بکشد، اما با استفاده از ابزار محبوب هوش مصنوعی به چند ثانیه کاهش یافت.
او گفت که او از مدت زمانی که چت بات او را نجات داد هیجان زده بود، اما در ماه آوریل، روسای او حکم سختی صادر کردند: ChatGPT برای استفاده کارمندان ممنوع شد. آنها نمیخواستند کارگران اسرار شرکت را وارد چتبات کنند – که سوالات مردم را میپذیرد و با پاسخهای واقعی پاسخ میدهد – و خطر عمومی شدن آن اطلاعات را به خطر میاندازند.
جاستین که به شرط استفاده از نام کوچک خود برای بحث آزادانه درباره سیاستهای شرکت صحبت میکرد، گفت: “این کمی بد است.” اما او میداند که این ممنوعیت به دلیل “احتیاط فراوان” ایجاد شده است، زیرا او گفت که OpenAI در مورد نحوه کار ربات چت خود بسیار محرمانه است. او گفت: «ما واقعاً نمی دانیم زیر کاپوت چه چیزی وجود دارد.
ابزارهای مولد هوش مصنوعی مانند ChatGPT OpenAI به عنوان محوری برای دنیای کار اعلام شده است، با پتانسیل افزایش بهره وری کارکنان از طریق خودکار کردن کارهای خسته کننده و ایجاد راه حل های خلاقانه برای مشکلات چالش برانگیز. اما از آنجایی که این فناوری در پلتفرم های منابع انسانی و سایر ابزارهای محل کار ادغام می شود، چالش بزرگی برای شرکت های آمریکایی ایجاد می کند. شرکتهای بزرگی مانند اپل، اسپاتیفای، ورایزون و سامسونگ نحوه استفاده کارمندان از ابزارهای هوش مصنوعی را در محل کار خود ممنوع یا محدود کردهاند و دلیل آن نگرانیهایی است که این فناوری ممکن است اطلاعات حساس شرکت و مشتریان را به خطر بیندازد.
چندین رهبر شرکت گفتند که ChatGPT را ممنوع می کنند تا از بدترین سناریویی جلوگیری کنند که در آن یک کارمند در هنگام جستجوی کمک در محل کار، کد اختصاصی رایانه یا بحث های هیئت مدیره را در چت بات آپلود می کند، و به طور ناخواسته این اطلاعات را در پایگاه داده ای قرار می دهد که OpenAI می تواند برای آموزش ربات چت خود استفاده کند. در آینده. مدیران نگرانند که هکرها یا رقبا بتوانند اسرار آن را به چت ربات بفرستند و آنها را دریافت کنند، اگرچه کارشناسان علوم رایانه می گویند مشخص نیست که این نگرانی ها چقدر معتبر هستند.
به گفته دانیل بنک، رئیس جهانی تمرین یادگیری ماشین در شرکت حقوقی Baker McKenzie، چشمانداز سریع هوش مصنوعی در حال ایجاد پویایی است که در آن شرکتها هم “ترس از دست دادن و هم ترس از خراب شدن” را تجربه میکنند. شرکت ها نگران لطمه زدن به شهرت خود هستند، با سرعت کافی حرکت نمی کنند یا با حرکت بسیار سریع.
بنکه گفت: “شما می خواهید یک دنبال کننده سریع باشید، اما نمی خواهید هیچ اشتباهی انجام دهید.”
سام آلتمن، مدیر اجرایی OpenAI، به طور خصوصی به برخی از توسعه دهندگان گفته است که این شرکت می خواهد یک ChatGPT “دستیار شخصی فوق هوشمند برای کار” ایجاد کند که دارای دانش داخلی در مورد کارمندان و محل کار آنها باشد و بتواند ایمیل ها یا اسناد را در ارتباطات افراد پیش نویس کند. بر اساس گزارش ژوئن در اطلاعات، سبکی با اطلاعات به روز درباره شرکت داشته باشید.
نمایندگان OpenAI از اظهار نظر در مورد نگرانیهای مربوط به حریم خصوصی شرکتها خودداری کردند، اما به پست آوریل در وبسایت OpenAI اشاره کردند که نشان میدهد کاربران ChatGPT میتوانند با ربات در حالت خصوصی صحبت کنند و از پایان دادن به درخواستهای آنها در دادههای آموزشی آن جلوگیری کنند.
شرکتها مدتهاست که با اجازه دادن به کارمندان برای استفاده از فناوریهای پیشرفته در محل کار خود مشکل داشتند. در دهه 2000، زمانی که سایتهای رسانههای اجتماعی برای اولین بار ظاهر شدند، بسیاری از شرکتها از ترس اینکه توجه کارمندان را از کار منحرف کنند، آنها را ممنوع کردند. هنگامی که رسانه های اجتماعی به جریان اصلی تبدیل شدند، این محدودیت ها تا حد زیادی ناپدید شدند. در دهه بعد، شرکتها نگران قرار دادن دادههای شرکتی خود بر روی سرورهای ابری بودند، اما اکنون این عمل رایج شده است.
بر اساس گزارش رویترز، گوگل به عنوان یک شرکت در هر دو طرف بحث هوش مصنوعی برجسته است – این غول فناوری رقیب خود را برای ChatGPT، Bard بازاریابی می کند، در حالی که همچنین به کارکنان خود نسبت به اشتراک گذاری اطلاعات محرمانه با چت بات ها هشدار می دهد. جیمز مانیکا، معاون ارشد گوگل، در یک مرور کلی از بارد که با واشنگتن پست به اشتراک گذاشته شده، هشدار داد، اگرچه مدل زبان بزرگ می تواند نقطه جهشی برای ایده های جدید و صرفه جویی در زمان باشد، اما از لحاظ دقت و تعصب محدودیت هایی دارد. این راهنما با استفاده از مخفف «مدل زبان بزرگ» میگوید: «مانند تمام تجربیات مبتنی بر LLM، بارد همچنان اشتباه میکند».
رابرت فرارا، مدیر ارتباطات گوگل در بیانیهای به The Post گفت: «ما همیشه به کارمندان گفتهایم که اطلاعات محرمانه را به اشتراک نگذارند و سیاستهای داخلی سختگیرانهای برای حفاظت از این اطلاعات در نظر بگیرند.
در ماه فوریه، مدیران Verizon به کارکنان خود هشدار دادند: از ChatGPT در محل کار استفاده نکنید.
واندانا ونکاتش، مدیر ارشد حقوقی شرکت، در ویدئویی خطاب به کارمندان گفت که دلایل این ممنوعیت ساده بود. او گفت ورایزون موظف است مواردی مانند اطلاعات مشتری، کد نرم افزار داخلی شرکت و سایر دارایی های معنوی Verizon را با ChatGPT یا ابزارهای هوش مصنوعی مشابه به اشتراک نگذارد، زیرا این شرکت نمی تواند آنچه را که پس از وارد شدن به چنین پلتفرم هایی روی می دهد کنترل کند.
Verizon به درخواستهای The Post برای اظهار نظر پاسخ نداد.
جوزف بی فولر، استاد دانشکده بازرگانی هاروارد و یکی از رهبران ابتکار کاری آینده آن، گفت که مدیران مایل به انطباق ربات چت با عملیات نیستند زیرا هنوز سوالات زیادی در مورد قابلیت های آن وجود دارد.
او گفت: “شرکت ها هر دو درک محکمی از پیامدهای اجازه دادن به کارمندان فردی درگیر در چنین فناوری قدرتمندی ندارند، و همچنین اعتقاد زیادی به درک کارکنان خود از مسائل مربوط به آن ندارند.”
فولر گفت این امکان وجود دارد که شرکتها ChatGPT را به طور موقت ممنوع کنند زیرا اطلاعات بیشتری در مورد نحوه عملکرد آن و ارزیابی خطرات ناشی از آن در رابطه با دادههای شرکت دارند.
فولر پیشبینی کرد که شرکتها در نهایت هوش مصنوعی مولد را در عملیات خود ادغام خواهند کرد، زیرا به زودی با استارتآپهایی که مستقیماً بر روی این ابزارها ساخته شدهاند، رقابت خواهند کرد. اگر بیش از حد منتظر بمانند، ممکن است کسب و کار خود را به رقبای جدید از دست بدهند.
Eser Rizaoglu، یک تحلیلگر ارشد در شرکت تحقیقاتی Gartner، گفت که رهبران منابع انسانی به طور فزاینده ای در حال ایجاد راهنمایی در مورد نحوه استفاده از ChatGPT هستند.
او گفت: «با گذشت زمان، رهبران منابع انسانی دیدند که چت رباتهای هوش مصنوعی در اطراف هستند.»
شرکت ها در حال اتخاذ طیف وسیعی از رویکردها برای هوش مصنوعی مولد هستند. برخی، از جمله شرکت دفاعی Northrop Grumman و شرکت رسانه ای iHeartMedia، ممنوعیت های مستقیم را انتخاب کرده اند و استدلال می کنند که این خطر بسیار زیاد است که به کارمندان اجازه آزمایش بدهد. این رویکرد در صنایع مواجهه با مشتری از جمله خدمات مالی رایج بوده است، به طوری که Deustche Bank و JPMorgan Chase استفاده از ChatGPT را در ماه های اخیر مسدود کرده اند.
سایرین، از جمله شرکت حقوقی Steptoe & Johnson، در حال تدوین سیاستهایی هستند که به کارمندان میگوید که چه زمانی استقرار هوش مصنوعی قابل قبول است و چه زمانی قابل قبول نیست. به گفته دونالد استرنفلد، مدیر ارشد نوآوری شرکت، این شرکت نمیخواست ChatGPT را کاملاً ممنوع کند، اما کارمندان را از استفاده از آن و ابزارهای مشابه در کار مشتری منع کرده است.
استرنفلد به داستانهای هشداردهندهای مانند داستان وکلای نیویورکی اشاره کرد که اخیراً پس از تشکیل یک خلاصه حقوقی ایجاد شده توسط ChatGPT که چندین پرونده ساختگی و نظرات حقوقی را ذکر کرده بود، تحریم شدند.
استرنفلد گفت: ChatGPT “آموزش داده است تا به شما پاسخ دهد، حتی زمانی که نمی داند.” او برای نشان دادن نظر خود از چت بات پرسید: اولین کسی که از کانال مانش عبور کرد چه کسی بود؟ او روایت قانعکنندهای از یک فرد خیالی در حال انجام یک کار غیرممکن به دست آورد.
به گفته آرلین آرین هان، رئیس جهانی معاملات فناوری در شرکت حقوقی وایت، در حال حاضر، “کمی ساده لوحی” در بین شرکت ها در مورد ابزارهای هوش مصنوعی وجود دارد، حتی با وجود اینکه انتشار آنها باعث ایجاد “اختلال در استروئیدها” در سراسر صنایع می شود. & مورد. او به مشتریان توصیه می کند که پیشرفت های هوش مصنوعی مولد را زیر نظر داشته باشند و آماده تجدید نظر مداوم در سیاست های خود باشند.
هان گفت: “شما باید مطمئن شوید که توانایی تغییر خط مشی را برای خود محفوظ می دارید… بنابراین سازمان شما به اندازه کافی زیرک و انعطاف پذیر است تا امکان نوآوری را بدون سرکوب پذیرش فناوری جدید فراهم کند.”
Benecke گفت که Baker McKenzie یکی از شرکتهای حقوقی اولیه بود که استفاده از ChatGPT را برای وظایف خاص کارمندان تحریم کرد و تقریباً در هر لایهای از کارکنان تمایل دارند تا بررسی کنند که چگونه ابزارهای هوش مصنوعی مولد میتوانند کار سخت را کاهش دهند. اما هر اثری که با کمک هوش مصنوعی تولید میشود، باید تحت نظارت کامل انسانی باشد، با توجه به تمایل این فناوری به تولید پاسخهای متقاعدکننده و در عین حال نادرست.
یون کیم، کارشناس یادگیری ماشینی و استادیار MIT، گفت که نگرانیهای شرکتها معتبر است، اما ممکن است این نگرانی وجود داشته باشد که ChatGPT اسرار شرکت را فاش کند.
کیم گفت از نظر فنی این امکان وجود دارد که ربات چت بتواند از دستورات حساس وارد شده به آن برای داده های آموزشی استفاده کند، اما همچنین گفت که OpenAI برای جلوگیری از آن نرده هایی ساخته است.
او اضافه کرد که حتی اگر هیچ گاردریل وجود نداشته باشد، دسترسی به داده های اختصاصی وارد شده به ربات چت برای «بازیگران مخرب» دشوار خواهد بود، زیرا حجم عظیمی از داده هایی که ChatGPT نیاز به یادگیری دارد.
“معلوم نیست که اگر [proprietary information] یک بار وارد می شود که با پرسیدن ساده می توان آن را استخراج کرد.»
او گفت که اگر شرکت جاستین به او اجازه دهد دوباره از ChatGPT استفاده کند، کمک زیادی به او خواهد کرد.
او میگوید: «این کار مدت زمانی را که برای بررسی مسائل میبرد کاهش میدهد.» “این قطعا یک زمان صرفه جویی بزرگ است.”
—تیلور تلفورد و پرانشو ورما، واشنگتن پست