سامسونگ اخیرا به کارکنان بخشهای تولیدی خود هشدار داده که در کار با بات هوش مصنوعی ChatGPT احتیاط کنند و اطلاعات حساس شرکت را به این ابزار به اشتراک نگذارند.
چندی پیش آژانس اطلاعاتی بریتانیا و پلیس اتحادیه اروپا موسوم به یوروپل از شهروندان خواستند تا درباره آنچه با چتبات ChatGPT به اشتراک میگذارند، وسواس و حساسیت بیشتری به خراج دهند.
حتی OpenAI که شرکت سازنده ChatGPT محسوب میشود، به کاربران توصیه کرد که در مکالمات خود با این ربات، از اشتراک هرگونه اطلاعات شخصی و حساس خودداری کنند.
آمازون و جیپیمورگان نیز چندی پیش از کارمندان خود خواستند تا در استفاده خود از ChatGPT به این هشدارها درباره اشتراک اطلاعات حساس توجه کنند
در همین رابطه، مهندسان کارخانههای تولیدی تراشههای سامسونگ نیز همانند دیگر افراد، به استفاده از این بات هوش مصنوعی روی آوردهاند و طی 20 روز گذشته، سه مورد نشت اطلاعات از این شرکت در نتیجه کار با ChatGPT گزارش شده است.
به همین جهت، سامسونگ از این مهندسان خواسته تا اطلاعات شرکت را در با این بات به اشتراک نگذارند. در یکی از این موارد، یکی از کارکنان این شرکت از ChatGPT خواسته تا ارورهای موجود در سورس کد یک تراشه نیمههادی را چک کند؛ اطلاعاتی که حساس و مربوط به دیتابیس این شرکت بوده است.
یکی دیگر از مهندسان این شرکت نیز پس از ایجاد یک کد برنامه برای تشخیص خرابیهای تجهیزات، از ChatGPT خواست تا این کد را بهبود ببخشد. مورد سوم نیز به کارمندی برمیگردد که متن پیادهشده جلسهای را در اختیار ChatGPT قرار داد و از این ابزار خواست تا از این آن خلاصهبرداری کند.
اگر استفاده از این بات هوش مصنوعی توسط مهندسان سامسونگ به همین شکل ادامه یابد، بخش زیادی از اطلاعات و دادههای حساس و تجاری این شرکت در اختیار OpenAI قرار خواهد گرفت.
به همین روی، مدیران سامسونگ در حال بررسی اقداماتی هستند که استفاده از ChatGPT و عرضه اطلاعات حساس شرکت به این بات را محدود و مسدود میکند. از جمله این اقدامات میتوان به محدود کردن سایز سوالات به 1024 بایت اشاره کرد.
گفته میشود که در صورت مشاهده استفاده از این بات هوش مصنوعی و درز بیشتر اطلاعات این شرکت، احتمالا ChatGPT در این شرکت مسدود و ممنوع خواهد شد. برخی منابع خبری نیز از تلاش سامسونگ برای عرضه محصولی جهت استفاده داخلی کارکنان و قابل رقابت با ChatGPT خبر دادهاند.