قائمة الموقع

"سامسونغ" تمنع موظفيها من استخدام "تشات جي بي تي" لهذا السبب

2023-05-03T05:22:00+03:00
وكالات

حظرت شركة "سامسونغ" استخدام موظفيها لأدوات الذكاء الاصطناعي التوليدية الشهيرة مثل "ChatGPT"، بعد اكتشاف قيام موظفين بتحميل كود حساس على النظام الأساسي.

وأخطرت شركة "Suwon"، ومقرها كوريا الجنوبية، الموظفين في أحد أكبر أقسامها، بشأن السياسة الجديدة.

ووفقا للوثيقة، تشعر الشركة بالقلق من أن البيانات التي يتم إرسالها إلى منصات الذكاء الاصطناعي هذه بما في ذلك "Google Bard" و"Bing" يتم تخزينها على خوادم خارجية، مما يجعل من الصعب استردادها وحذفها، وقد ينتهي الأمر بالكشف عنها لمستخدمين آخرين.

وأجرت الشركة استبيانا الشهر الماضي حول استخدام أدوات الذكاء الاصطناعي داخليا، وقالت إن 65٪ من المشاركين يعتقدون أن مثل هذه الخدمات تشكل خطرا أمنيا. وفي وقت سابق من أبريل، سرب مهندسو "سامسونغ" عن طريق الخطأ كود المصدر الداخلي عن طريق تحميله إلى "ChatGPT".

وقالت "سامسونغ" للموظفين: "الاهتمام بمنصات الذكاء الاصطناعي التوليدية مثل ChatGPT ينمو داخليا وخارجيا وبينما يركز هذا الاهتمام على فائدة وكفاءة هذه المنصات، هناك أيضا مخاوف متزايدة بشأن المخاطر الأمنية التي يقدمها الذكاء الاصطناعي التوليدي".

وتحظر قواعد "سامسونغ" الجديدة استخدام أنظمة الذكاء الاصطناعي التوليدية على أجهزة الكمبيوتر والأجهزة اللوحية والهواتف المملوكة للشركة، وكذلك على شبكاتها الداخلية.

ولا تؤثر هذه القرارات على أجهزة الشركة المباعة للمستهلكين، مثل الهواتف الذكية التي تعمل بنظام "أندرويد" وأجهزة الكمبيوتر المحمولة التي تعمل بنظام "ويندوز".

وطلبت "سامسونغ" من الموظفين الذين يستخدمون "ChatGPT" والأدوات الأخرى على الأجهزة الشخصية، عدم إرسال أي معلومات متعلقة بالشركة أو بيانات شخصية يمكن أن تكشف عن ملكيتها الفكرية. وحذرت من أن انتهاك السياسات الجديدة قد يؤدي إلى الطرد.

وقال أكثر من 60 في المائة من موظفي سامسونغ في استطلاع داخلي إن هناك مخاطر أمنية باستخدام منصات الذكاء الاصطناعي مع أجهزة الشركة.

اخبار ذات صلة