Des dizaines de manifestants se sont rassemblés lundi soir devant le siège d'OpenAI à San Francisco pour exprimer leurs inquiétudes concernant le développement de l'intelligence artificielle (IA) par l'entreprise, alors que les employés quittaient les lieux.
La manifestation, organisée par Pause AI et No AGI, a appelé les ingénieurs d'OpenAI à interrompre leurs travaux sur des systèmes d'IA avancés, y compris le chatbot ChatGPT. Leur message était clair : mettre un frein à la recherche sur l'intelligence générale artificielle (AGI) qui pourrait surpasser les capacités humaines et éviter les affiliations militaires.
Ce mouvement a été en partie déclenché par la récente décision d'OpenAI de supprimer des passages de sa politique d'utilisation interdisant l'usage militaire de ses technologies d'IA. Peu après ce changement, des rapports ont révélé qu'OpenAI avait acquis le Pentagone comme client.
« Nous exigeons qu’OpenAI mette fin à ses relations avec le Pentagone et rejette tous les clients militaires », a indiqué la description de l'événement. « Si les limites éthiques peuvent être modifiées par convenance, elles ne peuvent pas être dignes de confiance. »
Les médias ont interrogé les organisateurs de la manifestation pour comprendre leurs objectifs et leurs critères de succès. « La mission de No AGI est de sensibiliser aux dangers du développement de l'AGI », a déclaré Sam Kirchener, à la tête de No AGI. « Nous devrions nous concentrer sur des initiatives comme l'émulation cérébrale complète qui mettent l'accent sur la pensée humaine dans l'intelligence. »
Holly Elmore, principale organisatrice de Pause AI, a exprimé le souhait de son groupe d'« une pause mondiale et indéfinie dans le développement de l'AGI jusqu'à ce qu'elle soit jugée sûre ». Elle a souligné : « Mettre fin aux liens militaires est une frontière cruciale. »
Cette protestation se déroule dans un contexte de préoccupation croissante du public concernant les implications éthiques de l'IA. L’implication d'OpenAI avec le Pentagone a ravivé le débat sur la militarisation de l'IA et ses impacts potentiels.
Les craintes des manifestants se concentrent sur l'AGI, la capacité des machines à exécuter des tâches intellectuelles humaines à une vitesse et à une échelle sans précédent. Leurs préoccupations vont au-delà du remplacement des emplois et de l'autonomie des guerres ; elles reflètent une anxiété concernant les dynamiques de pouvoir et la prise de décision au sein de la société.
« Si nous réussissons à construire l'AGI, nous risquons de perdre le sens essentiel de notre vie en raison de ce qu'on appelle la menace psychologique, où l'AGI prend le contrôle de tout », a averti Kirchener. « Les gens ne trouveront plus de signification dans le travail, ce qui est crucial pour notre société actuelle. »
Elmore a ajouté : « L'auto-régulation ne suffit pas ; il doit y avoir une supervision externe. OpenAI a fréquemment renversé ses engagements—Sam Altman a affirmé en juin que le conseil pouvait le renvoyer, mais en novembre, il ne pouvait pas l'être. Des incohérences similaires ressortent de leur politique d'utilisation et de leurs contrats militaires—ces politiques semblent inefficaces si elles permettent des actions sans restrictions. »
Bien que Pause AI et No AGI partagent un objectif commun de stopper le développement de l'AGI, leurs approches diffèrent. Pause AI est ouverte à l'idée d'un développement sûr de l'AGI, tandis que No AGI s'y oppose fermement, citant des menaces psychologiques potentiellement graves et la perte de sens individuel.
Les deux groupes indiquent que cette protestation ne sera pas la dernière, et d'autres personnes préoccupées par les risques liés à l'IA peuvent s'engager via leurs sites web et réseaux sociaux. Pour l'instant, la Silicon Valley poursuit ses avancées rapides vers un avenir incertain en matière d'IA.