قال الرئيس التنفيذي لشركة (أوبن أي آي) OpenAI، (سام ألتمان)، لشبكة (سي إن بي سي) CNBC الأمريكية اليوم الجمعة إن شركته لم تُدرِّب نماذج اللغة الكبيرة التابعة لها، مثل: (جي بي تي) GPT على بيانات عملائها المشتركين في الخدمة المأجورة «منذ فترة».

وأضاف (ألتمان): «من الواضح أن العملاء يريدون منا عدم التدرب على بياناتهم، لذلك غيّرنا خططنا لكي لا نفعل ذلك». وكانت شركة أبحاث الذكاء الاصطناعي قد حدّثت شروط الخدمة التابعة لها خُفية في 1 آذار/ مارس الماضي.

وقال (ألتمان) لشبكة (سي إن بي سي): «نحن لا نتدرب على أي بيانات لواجهة برمجة التطبيقات على الإطلاق، ولم نفعل ذلك منذ فترة».

يُذكر أن واجهات برمجة التطبيقات هي أطر للعمل تسمح للعملاء بالاتصال مباشرة ببرنامج (أوبن أي آي) OpenAI.

ومع أنه من المرجح أن يستفيد عملاء (أوبن أي آي) التجاريون، مثل: مايكروسوفت، وسناب شات، وغيرها من إمكانات واجهة برمجة التطبيقات التابعة للشركة، لكن سياسة الخصوصية الجديدة وحماية البيانات تنطبق فقط على العملاء المشتركين في الخدمة المأجورة الذين يستخدمون خدمة واجهة برمجة التطبيقات الخاصة بالشركة.

ولتوضيح ذلك، فإن السياسة تمنع روبوت الدردشة الذائع الصيت (شات جي بي تي) ChatGPT من التدرب على البيانات التي يمكن لموظفي شركة ما أن يدخلوها.

ويُقال إن شركة أمازون حذّرت حديثًا موظفيها من مشاركة المعلومات السرية مع (شات جي بي تي) خوفًا من ظهورها في الإجابات.

وحظرت شركة سامسونج استخدام أدوات الذكاء الاصطناعي التوليدي الشائعة، مثل: (شات جي بي تي)، على موظفيها في مكان العمل، وذلك بعد أن اكتشفت أنهم حمَّلوا تعليمات برمجية حساسة على المنصة.

وتشعر الشركة، إضافة إلى شركات أخرى، بالقلق من أن البيانات التي تُرسل إلى منصات الذكاء الاصطناعي التوليدي، ومن ذلك: (بارد) من جوجل، و(بينج) من مايكروسوفت تُخزَّن في خوادم خارجية، مما يُصعِّب استردادها وحذفها، وقد ينتهي الأمر بالكشف عنها لمستخدمين آخرين.

وفي الشهر الماضي، أضاف روبوت الدردشة (شات جي بي تي) وضع «التخفي» الذي يسمح للمستخدمين بحظر استخدام محادثاتهم في تدريب نموذج الذكاء الاصطناعي.

شاركها.
Exit mobile version