cunews-openai-bolsters-preparedness-against-risks-of-ai-weapons-and-biases

Το OpenAI ενισχύει την ετοιμότητα κατά των κινδύνων από όπλα και προκαταλήψεις AI

Η ομάδα ετοιμότητας

Υπό την ηγεσία του καθηγητή τεχνητής νοημοσύνης του MIT, Aleksander Madry, το OpenAI έχει δημιουργήσει μια ειδική ομάδα που ονομάζεται “Preparedness”. Αποτελούμενη από ερευνητές τεχνητής νοημοσύνης, επιστήμονες υπολογιστών, εμπειρογνώμονες εθνικής ασφάλειας και επαγγελματίες πολιτικής, αυτή η ομάδα θα παρακολουθεί και θα δοκιμάζει συνεχώς την τεχνολογία του OpenAI. Διαδραματίζει κρίσιμο ρόλο στον εντοπισμό και την ειδοποίηση της εταιρείας εάν κάποιο από τα συστήματα τεχνητής νοημοσύνης της επιδείξει δυνητικά επικίνδυνη συμπεριφορά. Η Ομάδα Προετοιμασίας λειτουργεί παράλληλα με την υπάρχουσα ομάδα Συστημάτων Ασφαλείας του OpenAI, η οποία εστιάζει στον μετριασμό ζητημάτων όπως η ενσωμάτωση μεροληπτικών αλγορίθμων στην τεχνητή νοημοσύνη και η ομάδα Superalignment, η οποία ερευνά την αποτροπή της βλάβης της ανθρωπότητας από την τεχνητή νοημοσύνη σε ένα υποθετικό σενάριο όπου η τεχνητή νοημοσύνη ξεπερνά την ανθρώπινη νοημοσύνη.

Η συζήτηση για τις υπαρξιακές απειλές

Νωρίτερα φέτος, εξέχουσες προσωπικότητες στον κλάδο της τεχνητής νοημοσύνης, συμπεριλαμβανομένων ηγετών από το OpenAI, την Google και τη Microsoft, τόνισαν τους υπαρξιακούς κινδύνους που συνδέονται με την τεχνητή νοημοσύνη, παρομοιάζοντάς τους με πανδημίες ή πυρηνικά όπλα. Ωστόσο, ορισμένοι ερευνητές υποστηρίζουν ότι μια τέτοια συγκέντρωση σε υποθετικά καταστροφικά σενάρια απομακρύνει την προσοχή από τις τρέχουσες επιβλαβείς συνέπειες της τεχνολογίας AI. Ένας αυξανόμενος αριθμός ηγετών επιχειρήσεων τεχνητής νοημοσύνης συνηγορούν υπέρ της προώθησης της τεχνολογικής ανάπτυξης, υποστηρίζοντας ότι οι κίνδυνοι είναι υπερεκτιμημένοι και ότι η τεχνολογία μπορεί να ωφελήσει σημαντικά την κοινωνία καθώς και να αυξήσει την κερδοφορία.

Μια ισορροπημένη προσέγγιση

Ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, αναγνωρίζει τους μακροπρόθεσμους κινδύνους που ενυπάρχουν στην τεχνητή νοημοσύνη, αλλά τονίζει τη σημασία της αντιμετώπισης των σημερινών προκλήσεων. Ο Altman αντιτίθεται σε κανονισμούς που επιβαρύνουν δυσανάλογα τις μικρότερες εταιρείες και εμποδίζουν την ικανότητά τους να ανταγωνίζονται στο ταχέως εξελισσόμενο τοπίο της τεχνητής νοημοσύνης.

Μετριασμός των κινδύνων με τη συνεργασία ειδικών

Ο Alexander Madry, ένας αξιότιμος ερευνητής AI και διευθυντής του Κέντρου Deployable Machine Learning του MIT, εντάχθηκε στο OpenAI φέτος. Παρά τις πρόσφατες αλλαγές στην ηγεσία, ο Madry εκφράζει εμπιστοσύνη στη δέσμευση της εταιρείας να διερευνήσει τους κινδύνους της τεχνητής νοημοσύνης. Το OpenAI συμμετέχει ενεργά σε συζητήσεις με οργανισμούς όπως η Εθνική Διοίκηση Πυρηνικής Ασφάλειας για τη διευκόλυνση περιεκτικών μελετών σχετικά με τους κινδύνους της τεχνητής νοημοσύνης. Επιπλέον, το OpenAI δεσμεύεται ότι θα επιτρέψει σε εξωτερικούς «καταρτισμένους, ανεξάρτητους τρίτους» να αξιολογήσουν την τεχνολογία του και να πραγματοποιήσουν αυστηρές δοκιμές πέρα ​​από την τυπική έρευνα που είναι διαθέσιμη στο διαδίκτυο. Αντιμετωπίζοντας απόψεις που πολώνουν την ανάπτυξη της τεχνητής νοημοσύνης είτε ως επιταχυνόμενη είτε ως επιβραδυνόμενη, ο Madry τονίζει την υπεραπλούστευση τέτοιων συζητήσεων, υποστηρίζοντας μια πιο διαφοροποιημένη προσέγγιση για την πρόοδο της τεχνητής νοημοσύνης.


Δημοσιεύτηκε

σε

από

Ετικέτες: