cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI تعزز الاستعداد لمواجهة مخاطر أسلحة الذكاء الاصطناعي والتحيزات

فريق الاستعداد

تحت قيادة ألكسندر مادري، أستاذ الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، أنشأت OpenAI فريقًا متخصصًا يسمى “الاستعداد”. يتألف هذا الفريق من باحثين في مجال الذكاء الاصطناعي، وعلماء كمبيوتر، وخبراء في الأمن القومي، ومتخصصين في السياسات، وسيقوم بمراقبة واختبار تكنولوجيا OpenAI بشكل مستمر. إنه يلعب دورًا حاسمًا في تحديد وتنبيه الشركة إذا أظهر أي من أنظمة الذكاء الاصطناعي الخاصة بها سلوكًا خطيرًا محتملاً. يعمل فريق الاستعداد جنبًا إلى جنب مع فريق أنظمة السلامة الحالي في OpenAI، والذي يركز على تخفيف المشكلات مثل دمج الخوارزميات المتحيزة في الذكاء الاصطناعي، وفريق Superalignment، الذي يحقق في منع الذكاء الاصطناعي من إيذاء البشرية في سيناريو افتراضي حيث يتفوق الذكاء الاصطناعي على الذكاء البشري.

مناقشة التهديدات الوجودية

في وقت سابق من هذا العام، أكدت شخصيات بارزة في صناعة الذكاء الاصطناعي، بما في ذلك قادة من OpenAI، وGoogle، وMicrosoft، على المخاطر الوجودية المرتبطة بالذكاء الاصطناعي، وشبهوها بالأوبئة أو الأسلحة النووية. ومع ذلك، يرى بعض الباحثين أن مثل هذا التركيز على السيناريوهات الكارثية الافتراضية يصرف الانتباه عن العواقب الضارة الحالية لتكنولوجيا الذكاء الاصطناعي. يدعو عدد متزايد من قادة أعمال الذكاء الاصطناعي إلى المضي قدمًا في تطوير التكنولوجيا، ويؤكدون أن المخاطر مبالغ فيها، وأن التكنولوجيا يمكن أن تفيد المجتمع بشكل كبير بالإضافة إلى زيادة الربحية.

نهج متوازن

يعترف سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بالمخاطر طويلة المدى الكامنة في الذكاء الاصطناعي ولكنه يشدد على أهمية معالجة التحديات الحالية. يعارض ألتمان اللوائح التنظيمية التي تثقل كاهل الشركات الصغيرة بشكل غير متناسب وتعيق قدرتها على المنافسة في مشهد الذكاء الاصطناعي سريع التطور.

تخفيف المخاطر بالتعاون مع الخبراء

انضم ألكسندر مادري، وهو باحث محترم في مجال الذكاء الاصطناعي ومدير مركز معهد ماساتشوستس للتكنولوجيا للتعلم الآلي القابل للنشر، إلى OpenAI هذا العام. على الرغم من التغييرات الأخيرة في القيادة، يعرب مادري عن ثقته في التزام الشركة بالتحقيق في مخاطر الذكاء الاصطناعي. تشارك OpenAI بنشاط في المناقشات مع منظمات مثل الإدارة الوطنية للأمن النووي لتسهيل الدراسات الشاملة حول مخاطر الذكاء الاصطناعي. علاوة على ذلك، تتعهد شركة OpenAI بالسماح “لأطراف ثالثة مستقلة ومؤهلة” خارجية بتقييم تقنيتها وإجراء اختبارات صارمة تتجاوز الأبحاث القياسية المتاحة عبر الإنترنت. في معالجة وجهات النظر التي تستقطب تطوير الذكاء الاصطناعي باعتباره إما متسارعًا أو متباطئًا، يؤكد مادري على المبالغة في تبسيط مثل هذه المناقشات، ويدعو إلى اتباع نهج أكثر دقة لتقدم الذكاء الاصطناعي.


Posted

in

by

Tags: