هوش مصنوعی

تردید شرکت‌ها درباره استفاده از ChatGPT توسط کارمندان

سرفصل‌های مقاله
شرکت‌ها در سراسر جهان در حال تلاش برای کنار آمدن با رشد سریع هوش مصنوعی هستند. اما درباره استفاده از ChatGPT توسط کارمندان تردیدهای زیادی وجود دارد

 برخی از شرکت‌ها عجله دارند که هوش مصنوعی را در اسرع وقت به عنوان ابزار گردش کار برای کارمندان خود بپذیرند، در حالی که برخی دیگر حداقل در حال حاضر از آن اجتناب می‌کنند.

از آن‌جایی که هوش مصنوعی مولد – فناوری که زیربنای ChatGPT و ابزارهای مشابه است – به ظاهر در هر گوشه‌ای از اینترنت نفوذ می‌کند، شرکت‌های بزرگ با این موضوع دست‌وپنجه نرم می‌کنند که آیا این فناوری واقعا به افزایش کارایی کمک می‌کند یا باعث بروز مشکلات امنیتی و موضوع کپی‌رایت خواهد شد. 

برخی از شرکت‌ها در حالی که در تلاش برای درک بهتر این فناوری هستند، تحریم‌های داخلی را بر روی استفاده از ChatGPT اعمال کرده‌اند و برخی دیگر بلافاصله به آموزش استفاده از هوش مصنوعی به کارمندان خود روی آورده‌اند.

ممنوعیت هوش مصنوعی؟ استقبال از هوش مصنوعی؟ یا استفاده از ChatGPT

ChatGPT
استفاده از ChatGPT

بسیاری از شرکت‌های برجسته، با استناد به نگرانی‌های مربوط به حفظ حریم شخصی و نفوذهای امنیتی، به‌طور کامل استفاده از ChatGPT را مسدود کرده‌اند، از جمله Northrup Grumman، Apple و Spotify. 

رهبران کسب‌وکارهای بزرگ همچنین نگرانند که رهاسازی اطلاعات خصوصی این شرکت‌ها در ChatGPT توسط کارمندان، ممکن است به استفاده از این اطلاعات توسط هوش مصنوعی مولد در جاهای دیگر منجر شود.

«مارک مک‌کری»، رئیس مشترک بخش حریم خصوصی و امنیت داده در شرکت حقوقی «فاکس روچیلد LLP» به سی‌ان‌ان گفته: «وقتی کاربران اطلاعاتی را در این ابزارها وارد می‌کنند، نمی‌دانید چگونه از آن استفاده می‌شود. این موضوع نگرانی‌های زیادی را برای شرکت‌ها ایجاد می‌کند.»

 مک‌کری افزوده: «همان‌طور که تعداد بیشتری از کارمندان به طور معمول از این ابزارها برای کمک به نوشتن ایمیل‌های کاری یا یادداشت‌های داخل جلسات استفاده می‌کنند، خطر رها شدن اسرار تجاری شرکت‌ها در هوش مصنوعی مولد افزایش می‌یابد.»

اما تردید شرکت‌ها برای استقبال از هوش مصنوعی مولد می‌تواند موقتی باشد.

«جاناتان گیلهام» مدیرعامل شرکت Originality.AI می‌گوید: «شرکت‌هایی که هوش مصنوعی مولد را در لیست ممنوعیت‌های خود قرار داده‌اند، در عین حال کارگروه‌های داخلی نیز دارند که در حال بررسی استفاده از هوش مصنوعی هستند.»

او اعتقاد دارد باید بهترین رویکرد را برای استفاده مسئولانه از هوش مصنوعی مولد پیدا کرد. گیلهام اضافه می‌کند: «این‌که استفاده از ChatGPT را در اختیار کارمندان‌تان بگذارید و به آن‌ها بگویید “حالش رو ببرید”، ریسک‌های خطرناکی در پی دارد. کارایی یعنی بفهمیم چگونه باید از این فناوری استفاده کرد تا همه ذی‌نفعان خوشحال باشند. در بخش‌هایی مانند حقوقی، مالی و حسابداری، نباید از هوش مصنوعی مولد استفاده شود.»

در میان شرکت‌های رسانه‌ای که خبر تولید می‌کنند، «نیکلاس کارلسون» سردبیر Insider خبرنگاران را تشویق کرده است تا راه‌هایی برای استفاده از هوش مصنوعی در اتاق خبر بیابند. 

او در ماه آوریل گفت: «سونامی در راه است. ما می‌توانیم سوار آن شویم، یا با آن از بین برویم. اما سوار شدن روی آن واقعا سرگرم‌کننده خواهد بود و روند ما را سریع‌تر و بهتر خواهد کرد.»

با این حال Insider کارکنانش را از قرار دادن جزئیات منبع و سایر اطلاعات حساس در ChatGPT منع کرده. گروه روزنامه‌های زنجیره‌ای Gannett نیز استفاده از ابزار هوش مصنوعی را پس از وقوع چند اشتباه در حین نوشتن گزارش، به حالت تعلیق درآورده است.

از میان شرکت‌هایی که در حال حاضر استفاده از ChatGPT را ممنوع کرده‌اند، برخی از آن‌ها پس از رفع نگرانی‌های امنیتی، درباره استفاده از آن در آینده بحث می‌کنند. UBS تخمین زده که ChatGPT تنها دو ماه پس از راه‌اندازی آن به ۱۰۰ میلیون کاربر فعال ماهانه در ژانویه رسید.

این رشد سریع در ابتدا شرکت‌های بزرگ را به تکاپو انداخت تا راه‌هایی برای ادغام مسئولانه آن بیابند. این روند برای شرکت‌های بزرگ کند است. در همین حال، بازدید وب‌سایت‌ها از ChatGPT برای سومین ماه متوالی در ماه آگوست کاهش یافته و فشاری را بر شرکت‌های بزرگ فناوری برای حفظ علاقه عمومی به ابزارها و یافتن برنامه‌های کاربردی جدید سازمانی و مدل‌های درآمدی برای محصولات مولد هوش مصنوعی ایجاد کرده است.

«لری فاینسمیت» رئیس استراتژی فناوری جهانی، نوآوری و مشارکت شرکت JPM در اجلاسی در ماه ژوئن گفت: «ما در JPMorgan Chase تا زمانی که نتوانیم همه خطرات را کاهش دهیم، هوش مصنوعی مولد را راه‌اندازی نمی‌کنیم. ما هیجان‌زده و در عین حال در حال مقابله با این خطرات هستیم، اما تا زمانی که نتوانیم این کار را به شیوه‌ای کاملا مسئولانه انجام دهیم، آن را به کار نخواهیم برد، و این زمان می‌برد.» 

طبق گزارش ماه مارس وال استریت ژورنال، شرکت تولید تجهیزات نظامی «نورتروپ گرومن» اعلام کرده که اجازه ورود داده‌های داخلی شرکت را در پلتفرم‌های خارجی «تا زمانی که این ابزارها به طور کامل بررسی نشده‌اند» نمی‌دهد.

 شرکت مخابراتی Verizon نیز در یک سخنرانی عمومی کارمندانش گفت که استفاده از ChatGPT به دلیل خطرات امنیتی ممنوع است، اما این شرکت می‌خواهد با خیال راحت از فناوری‌های نوظهور استقبال کند.

شرکت‌ها ابزارهای سفارشی هوش مصنوعی تولید می‌کنند

«ورن گلاسر» دانشیار رشته کارآفرینی در دانشگاه آلبرتا می‌گوید: «آنها فقط منتظر نیستند که همه چیز را حل کنند. فکر می‌کنم شرکت‌ها فعالانه روی ادغام هوش مصنوعی در فرایندهای تجاری خود به طور جداگانه کار می‌کنند، اما این کار را به گونه‌ای انجام می‌دهند که اطلاعات آن‌ها را به خطر نیندازد. شرکت‌هایی که از استراتژی‌های هوش مصنوعی استفاده می‌کنند به‌ویژه آن‌هایی که محتوای منحصربه‌فرد خود را دارند در نهایت نسخه‌های سفارشی و شخصی‌سازی شده هوش مصنوعی مناسب با خود را تولید خواهند کرد.»

به نظر می‌رسد چندین شرکت – و حتی خود ChatGPT – قبلا پاسخ‌های خود را برای معضل امنیتی هوش مصنوعی مولد در جهان شرکت‌ها یافته‌اند.

به عنوان مثال شرکتی در ابعاد «والمارت»، برای 50هزار کارمند خود ابزاری داخلی به نام «دستیار من» طراحی کرده که به کارمندان در انجام کارهای تکراری و رسیدن به ایده‌های خلاقانه کمک می‌کند. این ابزار برای افزایش بهره‌وری و در نهایت کمک به ایجاد بینش‌های جدید در کارمندان در نظر گرفته شده است.

بسیاری از شرکت‌های بزرگ دیگر نیز از نسخه‌های داخلی و سفارشی هوش مصنوعی مولد استقبال می‌کنند. مثلا شرکت PwC از راه‌اندازی یک «کارخانه هوش مصنوعی مولد» و ساخت ابزار اختصاصی خود با نام ChatPwC که توسط OpenAI طراحی شده خبر داد. این ابزار قرار است دستیار کارمندان شرکت در زمینه مسائل مالیاتی و مقررات باشد.

OpenAI و مایکروسافت، ابزارهای هوش مصنوعی سازمانی راه‌اندازی می‌کنند

راه‌اندازی نسخه سازمانی ChatGPT نیز ممکن است به فرونشاندن برخی ترس‌ها کمک کند. 

نسخه جدید ابزار جدید OpenAI که در ماه آگوست معرفی شد، به طور خاص برای مشاغل است و قول داده که “امنیت و حریم خصوصی در سطح سازمانی” را همراه با “قوی ترین نسخه ChatGPT تاکنون” برای کسب‌وکارهایی که به دنبال استفاده از هوش مصنوعی مولد هستند، تضمین کند.

در پاسخ به نگرانی‌های مطرح شده توسط بسیاری از شرکت‌ها در مورد امنیت پیرامون کارکنانی که اطلاعات اختصاصی را در ChatGPT می‌ریزند و این اطلاعات حساس به طور بالقوه به عنوان یک خروجی توسط ابزار در جاهای دیگر ظاهر می‌شود، OpenAI در یک پست وبلاگی به شرکت‌ها اطمینان داد که این ابزار جوری طراحی شده که توسط اطلاعات و داده‌های شخصی شرکت‌ها آموزش نبیند و آن‌ها را منتشر نکند.

 در ماه ژوئیه، مایکروسافت یک نسخه تجاری خاص از ابزار Bing مبتنی بر هوش مصنوعی خود را با نام Bing Chat Enterprise رونمایی کرد و وعده داد که این ابزار نیز تمام موارد امنیتی رعایت‌شده توسط ChatGPT Enterprise را رعایت کرده و از داده‌های شرکت‌ها برای آموزش هوش مصنوعی استفاده نمی‌کند.

با این حال هنوز مشخص نیست که آیا ابزارهای جدید برای متقاعد کردن شرکت‌های آمریکایی مبنی بر این‌که زمان پذیرش کامل هوش مصنوعی مولد فرا رسیده یا نه، کافی است یا خیر. اگرچه کارشناسان معتقدند ورود اجتناب‌ناپذیر این فناوری به محیط کار، نیازمند زمان و استراتژی است.

مهران
مهران