“ذكاء اصطناعي بلا فوضى… OpenAI تُعلن قواعد الاستخدام الأخلاقي الشامل”
حدثت شركة OpenAI سياساتها الخاصة بالاستخدام الآمن والمسؤول لأدوات الذكاء الاصطناعي لتوحيدها عبر جميع منتجاتها وخدماتها. وتهدف هذه السياسات إلى تمكين المستخدمين من الابتكار ضمن ضوابط أخلاقية وقانونية تحافظ على سلامة الأفراد والمجتمع.
تركّز السياسات على أربعة مبادئ أساسية:
الاستخدام المسؤول: يُفترض حسن نية المستخدمين، لكن أي تجاوز أو تحايل على القواعد قد يؤدي إلى فقدان الوصول إلى الخدمات.
الأمان أولاً: تُراقب الشركة الالتزام بالقوانين وتوفّر أدوات للمطورين للإشراف ومنع إساءة الاستخدام.
حماية الخصوصية: يُمنع استخدام خدماتها لانتهاك خصوصية الأفراد أو إنشاء قواعد بيانات للتعرّف على الوجوه أو الانتحال الصوتي أو البصري دون موافقة.
حماية القُصَّر: تُمنع تمامًا أي أنشطة تستغل الأطفال أو تعرّضهم لمحتوى غير مناسب، مع الإبلاغ الإلزامي عن أي مواد مسيئة.
كما تحظر OpenAI استخدام أدواتها في مجالات مثل التلاعب السياسي، أو الاحتيال، أو تقديم استشارات قانونية وطبية بدون إشراف متخصص، أو اتخاذ قرارات عالية المخاطر دون مراجعة بشرية.
وأوضحت الشركة أن سياساتها تتطور باستمرار لتواكب الاستخدامات الجديدة وتضمن بيئة رقمية أكثر أمانًا ومسؤولية.
