برخی از شرکتها عجله دارند که هوش مصنوعی را در اسرع وقت به عنوان ابزار گردش کار برای کارمندان خود بپذیرند، در حالی که برخی دیگر حداقل در حال حاضر از آن اجتناب میکنند.
از آنجایی که هوش مصنوعی مولد – فناوری که زیربنای ChatGPT و ابزارهای مشابه است – به ظاهر در هر گوشهای از اینترنت نفوذ میکند، شرکتهای بزرگ با این موضوع دستوپنجه نرم میکنند که آیا این فناوری واقعا به افزایش کارایی کمک میکند یا باعث بروز مشکلات امنیتی و موضوع کپیرایت خواهد شد.
برخی از شرکتها در حالی که در تلاش برای درک بهتر این فناوری هستند، تحریمهای داخلی را بر روی استفاده از ChatGPT اعمال کردهاند و برخی دیگر بلافاصله به آموزش استفاده از هوش مصنوعی به کارمندان خود روی آوردهاند.
ممنوعیت هوش مصنوعی؟ استقبال از هوش مصنوعی؟ یا استفاده از ChatGPT
بسیاری از شرکتهای برجسته، با استناد به نگرانیهای مربوط به حفظ حریم شخصی و نفوذهای امنیتی، بهطور کامل استفاده از ChatGPT را مسدود کردهاند، از جمله Northrup Grumman، Apple و Spotify.
رهبران کسبوکارهای بزرگ همچنین نگرانند که رهاسازی اطلاعات خصوصی این شرکتها در ChatGPT توسط کارمندان، ممکن است به استفاده از این اطلاعات توسط هوش مصنوعی مولد در جاهای دیگر منجر شود.
«مارک مککری»، رئیس مشترک بخش حریم خصوصی و امنیت داده در شرکت حقوقی «فاکس روچیلد LLP» به سیانان گفته: «وقتی کاربران اطلاعاتی را در این ابزارها وارد میکنند، نمیدانید چگونه از آن استفاده میشود. این موضوع نگرانیهای زیادی را برای شرکتها ایجاد میکند.»
مککری افزوده: «همانطور که تعداد بیشتری از کارمندان به طور معمول از این ابزارها برای کمک به نوشتن ایمیلهای کاری یا یادداشتهای داخل جلسات استفاده میکنند، خطر رها شدن اسرار تجاری شرکتها در هوش مصنوعی مولد افزایش مییابد.»
اما تردید شرکتها برای استقبال از هوش مصنوعی مولد میتواند موقتی باشد.
«جاناتان گیلهام» مدیرعامل شرکت Originality.AI میگوید: «شرکتهایی که هوش مصنوعی مولد را در لیست ممنوعیتهای خود قرار دادهاند، در عین حال کارگروههای داخلی نیز دارند که در حال بررسی استفاده از هوش مصنوعی هستند.»
او اعتقاد دارد باید بهترین رویکرد را برای استفاده مسئولانه از هوش مصنوعی مولد پیدا کرد. گیلهام اضافه میکند: «اینکه استفاده از ChatGPT را در اختیار کارمندانتان بگذارید و به آنها بگویید “حالش رو ببرید”، ریسکهای خطرناکی در پی دارد. کارایی یعنی بفهمیم چگونه باید از این فناوری استفاده کرد تا همه ذینفعان خوشحال باشند. در بخشهایی مانند حقوقی، مالی و حسابداری، نباید از هوش مصنوعی مولد استفاده شود.»
در میان شرکتهای رسانهای که خبر تولید میکنند، «نیکلاس کارلسون» سردبیر Insider خبرنگاران را تشویق کرده است تا راههایی برای استفاده از هوش مصنوعی در اتاق خبر بیابند.
او در ماه آوریل گفت: «سونامی در راه است. ما میتوانیم سوار آن شویم، یا با آن از بین برویم. اما سوار شدن روی آن واقعا سرگرمکننده خواهد بود و روند ما را سریعتر و بهتر خواهد کرد.»
با این حال Insider کارکنانش را از قرار دادن جزئیات منبع و سایر اطلاعات حساس در ChatGPT منع کرده. گروه روزنامههای زنجیرهای Gannett نیز استفاده از ابزار هوش مصنوعی را پس از وقوع چند اشتباه در حین نوشتن گزارش، به حالت تعلیق درآورده است.
از میان شرکتهایی که در حال حاضر استفاده از ChatGPT را ممنوع کردهاند، برخی از آنها پس از رفع نگرانیهای امنیتی، درباره استفاده از آن در آینده بحث میکنند. UBS تخمین زده که ChatGPT تنها دو ماه پس از راهاندازی آن به ۱۰۰ میلیون کاربر فعال ماهانه در ژانویه رسید.
این رشد سریع در ابتدا شرکتهای بزرگ را به تکاپو انداخت تا راههایی برای ادغام مسئولانه آن بیابند. این روند برای شرکتهای بزرگ کند است. در همین حال، بازدید وبسایتها از ChatGPT برای سومین ماه متوالی در ماه آگوست کاهش یافته و فشاری را بر شرکتهای بزرگ فناوری برای حفظ علاقه عمومی به ابزارها و یافتن برنامههای کاربردی جدید سازمانی و مدلهای درآمدی برای محصولات مولد هوش مصنوعی ایجاد کرده است.
«لری فاینسمیت» رئیس استراتژی فناوری جهانی، نوآوری و مشارکت شرکت JPM در اجلاسی در ماه ژوئن گفت: «ما در JPMorgan Chase تا زمانی که نتوانیم همه خطرات را کاهش دهیم، هوش مصنوعی مولد را راهاندازی نمیکنیم. ما هیجانزده و در عین حال در حال مقابله با این خطرات هستیم، اما تا زمانی که نتوانیم این کار را به شیوهای کاملا مسئولانه انجام دهیم، آن را به کار نخواهیم برد، و این زمان میبرد.»
طبق گزارش ماه مارس وال استریت ژورنال، شرکت تولید تجهیزات نظامی «نورتروپ گرومن» اعلام کرده که اجازه ورود دادههای داخلی شرکت را در پلتفرمهای خارجی «تا زمانی که این ابزارها به طور کامل بررسی نشدهاند» نمیدهد.
شرکت مخابراتی Verizon نیز در یک سخنرانی عمومی کارمندانش گفت که استفاده از ChatGPT به دلیل خطرات امنیتی ممنوع است، اما این شرکت میخواهد با خیال راحت از فناوریهای نوظهور استقبال کند.
شرکتها ابزارهای سفارشی هوش مصنوعی تولید میکنند
«ورن گلاسر» دانشیار رشته کارآفرینی در دانشگاه آلبرتا میگوید: «آنها فقط منتظر نیستند که همه چیز را حل کنند. فکر میکنم شرکتها فعالانه روی ادغام هوش مصنوعی در فرایندهای تجاری خود به طور جداگانه کار میکنند، اما این کار را به گونهای انجام میدهند که اطلاعات آنها را به خطر نیندازد. شرکتهایی که از استراتژیهای هوش مصنوعی استفاده میکنند – بهویژه آنهایی که محتوای منحصربهفرد خود را دارند – در نهایت نسخههای سفارشی و شخصیسازی شده هوش مصنوعی مناسب با خود را تولید خواهند کرد.»
به نظر میرسد چندین شرکت – و حتی خود ChatGPT – قبلا پاسخهای خود را برای معضل امنیتی هوش مصنوعی مولد در جهان شرکتها یافتهاند.
به عنوان مثال شرکتی در ابعاد «والمارت»، برای 50هزار کارمند خود ابزاری داخلی به نام «دستیار من» طراحی کرده که به کارمندان در انجام کارهای تکراری و رسیدن به ایدههای خلاقانه کمک میکند. این ابزار برای افزایش بهرهوری و در نهایت کمک به ایجاد بینشهای جدید در کارمندان در نظر گرفته شده است.
بسیاری از شرکتهای بزرگ دیگر نیز از نسخههای داخلی و سفارشی هوش مصنوعی مولد استقبال میکنند. مثلا شرکت PwC از راهاندازی یک «کارخانه هوش مصنوعی مولد» و ساخت ابزار اختصاصی خود با نام ChatPwC که توسط OpenAI طراحی شده خبر داد. این ابزار قرار است دستیار کارمندان شرکت در زمینه مسائل مالیاتی و مقررات باشد.
OpenAI و مایکروسافت، ابزارهای هوش مصنوعی سازمانی راهاندازی میکنند
راهاندازی نسخه سازمانی ChatGPT نیز ممکن است به فرونشاندن برخی ترسها کمک کند.
نسخه جدید ابزار جدید OpenAI که در ماه آگوست معرفی شد، به طور خاص برای مشاغل است و قول داده که “امنیت و حریم خصوصی در سطح سازمانی” را همراه با “قوی ترین نسخه ChatGPT تاکنون” برای کسبوکارهایی که به دنبال استفاده از هوش مصنوعی مولد هستند، تضمین کند.
در پاسخ به نگرانیهای مطرح شده توسط بسیاری از شرکتها در مورد امنیت پیرامون کارکنانی که اطلاعات اختصاصی را در ChatGPT میریزند و این اطلاعات حساس به طور بالقوه به عنوان یک خروجی توسط ابزار در جاهای دیگر ظاهر میشود، OpenAI در یک پست وبلاگی به شرکتها اطمینان داد که این ابزار جوری طراحی شده که توسط اطلاعات و دادههای شخصی شرکتها آموزش نبیند و آنها را منتشر نکند.
در ماه ژوئیه، مایکروسافت یک نسخه تجاری خاص از ابزار Bing مبتنی بر هوش مصنوعی خود را با نام Bing Chat Enterprise رونمایی کرد و وعده داد که این ابزار نیز تمام موارد امنیتی رعایتشده توسط ChatGPT Enterprise را رعایت کرده و از دادههای شرکتها برای آموزش هوش مصنوعی استفاده نمیکند.
با این حال هنوز مشخص نیست که آیا ابزارهای جدید برای متقاعد کردن شرکتهای آمریکایی مبنی بر اینکه زمان پذیرش کامل هوش مصنوعی مولد فرا رسیده یا نه، کافی است یا خیر. اگرچه کارشناسان معتقدند ورود اجتنابناپذیر این فناوری به محیط کار، نیازمند زمان و استراتژی است.