cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

OpenAI สนับสนุนการเตรียมพร้อมต่อความเสี่ยงของอาวุธ AI และความลำเอียง

ทีมงานเตรียมความพร้อม

ภายใต้การนำของศาสตราจารย์ Aleksander Madry จาก MIT AI นั้น OpenAI ได้จัดตั้งทีมงานเฉพาะที่เรียกว่า “การเตรียมพร้อม” ทีมนี้ประกอบด้วยนักวิจัย AI นักวิทยาศาสตร์คอมพิวเตอร์ ผู้เชี่ยวชาญด้านความมั่นคงแห่งชาติ และผู้เชี่ยวชาญด้านนโยบาย จะติดตามและทดสอบเทคโนโลยีของ OpenAI อย่างต่อเนื่อง มีบทบาทสำคัญในการระบุและแจ้งเตือนบริษัทหากระบบ AI ใด ๆ ของบริษัทแสดงพฤติกรรมที่อาจเป็นอันตราย ทีมเตรียมความพร้อมทำงานร่วมกับทีมระบบความปลอดภัยที่มีอยู่ของ OpenAI ซึ่งมุ่งเน้นไปที่การบรรเทาปัญหาต่างๆ เช่น การฝังอัลกอริธึมที่มีอคติลงใน AI และทีม Superalignment ซึ่งตรวจสอบการป้องกันไม่ให้ AI ทำร้ายมนุษยชาติในสถานการณ์สมมติที่ AI เหนือกว่าสติปัญญาของมนุษย์

การอภิปรายภัยคุกคามที่มีอยู่

เมื่อต้นปีที่ผ่านมา บุคคลสำคัญในอุตสาหกรรม AI รวมถึงผู้นำจาก OpenAI, Google และ Microsoft เน้นย้ำถึงความเสี่ยงที่มีอยู่ที่เกี่ยวข้องกับ AI โดยเปรียบเสมือนโรคระบาดหรืออาวุธนิวเคลียร์ อย่างไรก็ตาม นักวิจัยบางคนแย้งว่าการมุ่งเน้นไปที่สถานการณ์ภัยพิบัติสมมุตินั้น หันเหความสนใจไปจากผลที่ตามมาที่เป็นอันตรายของเทคโนโลยี AI ในปัจจุบัน ผู้นำธุรกิจ AI จำนวนมากขึ้นสนับสนุนให้ก้าวไปข้างหน้าด้วยการพัฒนาเทคโนโลยี โดยยืนยันว่ามีการระบุความเสี่ยงเกินจริง และเทคโนโลยีนี้สามารถสร้างประโยชน์ให้กับสังคมได้อย่างมาก พร้อมทั้งขับเคลื่อนความสามารถในการทำกำไร

แนวทางที่สมดุล

Sam Altman ซีอีโอของ OpenAI รับทราบถึงความเสี่ยงระยะยาวที่เกิดจาก AI แต่เน้นย้ำถึงความสำคัญของการจัดการกับความท้าทายในปัจจุบัน Altman ต่อต้านกฎระเบียบที่สร้างภาระให้กับบริษัทขนาดเล็กอย่างไม่สมสัดส่วน และขัดขวางความสามารถในการแข่งขันในภูมิทัศน์ AI ที่พัฒนาอย่างรวดเร็ว

การลดความเสี่ยงด้วยความร่วมมือจากผู้เชี่ยวชาญ

Aleksander Madry นักวิจัย AI ที่ได้รับการยกย่องและผู้อำนวยการศูนย์การเรียนรู้ของเครื่องที่ปรับใช้ได้ของ MIT เข้าร่วม OpenAI ในปีนี้ แม้ว่าผู้นำจะมีการเปลี่ยนแปลงเมื่อเร็วๆ นี้ แต่ Madry ก็แสดงความมั่นใจในความมุ่งมั่นของบริษัทในการตรวจสอบความเสี่ยงด้าน AI OpenAI มีส่วนร่วมอย่างแข็งขันในการหารือกับองค์กรต่างๆ เช่น National Nuclear Security Administration เพื่ออำนวยความสะดวกในการศึกษาที่ครอบคลุมเกี่ยวกับความเสี่ยงของ AI นอกจากนี้ OpenAI ยังให้คำมั่นว่าจะอนุญาตให้ “บุคคลที่สามที่มีคุณสมบัติและเป็นอิสระ” จากภายนอกประเมินเทคโนโลยีของตนและดำเนินการทดสอบอย่างเข้มงวดนอกเหนือจากการวิจัยมาตรฐานที่มีทางออนไลน์ ในการกล่าวถึงมุมมองที่แบ่งขั้วการพัฒนา AI ว่าเป็นการเร่งหรือชะลอตัว Madry เน้นย้ำถึงการทำให้การอภิปรายดังกล่าวเรียบง่ายเกินไป โดยสนับสนุนแนวทางการพัฒนา AI ที่เหมาะสมยิ่งขึ้น


Posted

in

by

Tags: