به گزارش همشهری آنلاین به نقل از رویترز شرکتها در سراسر جهان در حال بررسی برای بهترین استفاده از ChatGPT، برنامه چتباتی که از هوش مصنوعی(AI) مولد (generative) برای برقراری مکالمه با کاربران و پاسخ دادن به مجموعهای از «پرامپتهای» (یا پیاموارههای) آنها استفاده میکند. اما شرکتهای امنیت سایبری نگران هستند که چنین روندی میتواند به نقض مالکیت فکری و درز کردن راهبردهای تجاری شرکتها بینجامد.
نمونههای موردی استفادههای افراد از چتجیپیتی کمک گرفتن برای انجام کارهای روزانهای مانند آماده کردن پیشنویس ایمیلها، خلاصه کردن اسناد و انجام پژوهشهای مقدماتی است.
حدود ۲۸ درصد از پاسخدهندگان به نظرسنجی آنلاین رویترز-ایپسوس در مورد هوش مصنوعی در فاصله ۱۱ تا ۱۷ ژوئیه گفتند که به طور مرتب در محل کارشان از چتجیپیتی استفاده میکنند، و در مقابل فقط ۲۲ درصد آنها گفتند که مدیرانشان به طور واضح اجازه استفاده از چنین ابزارهای خارجی را به آنها دادهاند.
این نظرسنجی که از ۲۶۳۶۵ نفر در سراسر آمریکا انجام شده است، «فاصله اعتبار» ؟(یک معیار دقت) حدود ۲ درصد داشته است.
حدود ۱۰ درصد افراد مورد پرسش قرار گرفته گفتند که روسایشان به طور صریح استفاده از ابرازهای خارجی هوش مصنوعی را برایشان ممنوع کردهاند، در حالیکه حدود ۲۵ درصد گفتند که نمیدانند آییا شرکتشان اجازه استفاده از این فناوری را به آنها داده است یا نه.
چتجیپیتی پس از ارائهشدنش در ماه نوامبر (آذر ماه گذشته) به یکی از اپلیکیشنهای با سریعترین رشد در تاریخ بدل شده است. این چتبات هم باعث ایجاد هیجان و هم اعلام هشدار شده است و سازنده آن شرکت«اوپنایآی» (OpenAI) را به خصوص در اروپا در تعارض با مقامات ناظر قرار داده است، چرا که گرداوری تودهای دادهها بوسیله این شرکت انتقاد سازمانهای حامی حریم خصوصی را برانگیخته است.
بازبینهای انسانی از سایر شرکتها ممکن است هر کدام از چتهای تولیدشده را بخوانند و پژهشگران دریافتهاند که هوش مصنوعی با خصوصیات مشابه میتواند دادههای جذبکرده در جریان تعلیمش را بازتولید کند و به این ترتیب خطر افشای اطلاعات تجاری بوجود میآید.
شرکت OpenAI از پاسخ به این پرسش که پیامدهای استفاده کارمندان از چتجیپیتی چیست، خودداری کرده است، اما به یک پست اخیر وبلاگ این شرکت اشاره کرده است که به طرفهای تجاریاش اطمینان میدهد دادههایشان برای آموزش دادن بیشتر این چتبات مورد استفاده قرار نخواهد گرفت، مگر اینکه اجازه صریحی در این مورد داده شده باشد.
هنگام استفاده از ابزار هوش مصنوعی شرکت گوگل، یعنی بارد (bard) نیز دادههایی مانند متن، محل و سایر اطلاعات کاربری گردآوری میشود. اما گوگل به کاربرانش اجازه میدهد فعالیتهای گذشتهشان را از حسابشان پاک کنند و تقاضا کنند که محتوای خورانده شده به AI حذف شود.
مایکروسافت تا به حال در این باره اظهارنظری نکرده است.
واکنشهای متفاوت شرکتها
شرکتهای گوناگون واکنشهای متفاوتی به این گرایش به استفاده از ابزارهای هوش مصنوعی بوسیله کارکنانش نشان دادهاند. یکی از مدیران شرکت «تیندر» مستقر در آمریکا میگوید کارکنان از چتجیپیت برای «کارهای بیضرری» مانند نوشتن ایمیل استفاده میکنند، گرچه این شرکت به طور رسمی اجازه این کار را نداده است.
شرکت سامسونگ نیز در ماه مه (اردیبهشت) پس از آنکه کشف کرد یکی از کارکناکش کدهای حساس را به این پلتفرم وارد کرده است، کارکنانش را در سراسر جهان از استفاده از چتجیپیتی و ابزارهای مشابه هوش مصنوعی ممنوع کرد
شرکت آلفابت صاحب گوگل نیز درباره چگونگی استفاده از چتباتهایی از جمله بارد که خود گوگل صاحب آن است، به کارکنانش هشدار داده است. گوگل گفته است که گرچه بارد ممکن است پیشنهادهای نامطلوبی در کدنویسی بدهد، به برنامهنویسها کمک میکند.
برخی از شرکتهای دیگر هم میگویند از چتجیپیتی و پلتفرمهای مشابه استقبال میکنند، اما امنیت را هم در نظردارند.