مایکروسافت برای مدت کوتاهی ChatGPT را برای کارمندان خود مسدود می کند و خطا را به تست سیستم نسبت می دهد

Microsoft briefly blocks ChatGPT for its employees, attributing error to systems test

CNBC در همان روز گزارش داد که مایکروسافت برای مدت کوتاهی از استفاده کارکنان خود از ChatGPT و سایر ابزارهای هوش مصنوعی (AI) در 9 نوامبر جلوگیری کرد.

CNBC ادعا کرد که تصویری را دیده است که نشان می‌دهد چت ربات مبتنی بر هوش مصنوعی، ChatGPT، در دستگاه‌های شرکتی مایکروسافت در آن زمان غیرقابل دسترسی بوده است.

مایکروسافت همچنین سایت داخلی خود را به‌روزرسانی کرد و اظهار داشت که به دلیل نگرانی‌های امنیتی و داده‌ای، «تعدادی از ابزارهای هوش مصنوعی دیگر برای استفاده کارمندان در دسترس نیستند.»

آن اطلاعیه به سرمایه گذاری مایکروسافت در OpenAI مادر ChatGPT و همچنین پادمان های داخلی ChatGPT اشاره داشت. با این حال، به کارکنان شرکت نسبت به استفاده از این سرویس و رقبای آن هشدار داد، زیرا این پیام ادامه داشت:

“[ChatGPT] یک سرویس خارجی شخص ثالث است … این بدان معناست که شما باید در استفاده از آن به دلیل خطرات حریم خصوصی و امنیت احتیاط کنید. این برای سایر خدمات هوش مصنوعی خارجی مانند Midjourney یا Replika نیز صدق می کند.

CNBC گفت که مایکروسافت به طور خلاصه ابزار طراحی گرافیکی مبتنی بر هوش مصنوعی را Canva در اطلاعیه خود نامگذاری کرد، اگرچه بعداً این خط را از پیام حذف کرد.

مایکروسافت به طور تصادفی سرویس ها را مسدود کرد

CNBC گفت که مایکروسافت پس از انتشار پوشش خود از این حادثه، دسترسی به ChatGPT را بازیابی کرد. یکی از نمایندگان مایکروسافت به CNBC گفت که این شرکت به طور ناخواسته این محدودیت را برای همه کارمندان در حین آزمایش سیستم های کنترل نقطه پایانی که برای مهار تهدیدات امنیتی طراحی شده اند، فعال کرده است.

این نماینده گفت که مایکروسافت کارمندان خود را تشویق می کند که از ChatGPT Enterprise و Bing Chat Enterprise خود استفاده کنند و خاطرنشان کرد که این سرویس ها درجه بالایی از حریم خصوصی و امنیت را ارائه می دهند.

این خبر در بحبوحه نگرانی های گسترده حریم خصوصی و امنیتی در مورد هوش مصنوعی در ایالات متحده و خارج از کشور منتشر می شود. در حالی که سیاست محدودکننده مایکروسافت در ابتدا نشان دهنده عدم تایید این شرکت از وضعیت فعلی امنیت هوش مصنوعی بود، به نظر می رسد که این سیاست در واقع منبعی است که می تواند در برابر حوادث امنیتی آینده محافظت کند.