Le scientifique en chef de l'IA chez Meta, Yann LeCun, a vivement critiqué des leaders du secteur de l'IA qui plaident en faveur d'une réglementation par crainte que l'IA ne représente une menace existentielle pour l'humanité, surtout à l'approche du premier sommet mondial sur l'IA au Royaume-Uni cette semaine. Dans une publication sur X (anciennement Twitter), LeCun a rejeté ces scénarios apocalyptiques comme infondés. « Les peurs apocalyptiques que vous propagez sont absurdes », a-t-il déclaré. « Des systèmes d'IA puissants, guidés par des objectifs bien définis et accompagnés de garde-fous appropriés, sont sûrs et contrôlables parce que nous établissons ces paramètres. »
LeCun a souligné que les modèles de langage auto-régressifs actuels (LLMs) manquent de ces objectifs directeurs, mettant en garde contre l'idée d'extrapoler leurs limites actuelles à de futurs systèmes d'IA. Il a également accusé les dirigeants de trois grandes entreprises d'IA—Sam Altman d'OpenAI, Demis Hassabis de Google DeepMind et Dario Amodei d'Anthropic—de collusion pour maintenir des modèles d'IA fermés, affirmant : « Altman, Hassabis et Amodei sont à l'avant-garde d'un lobbying intensif visant à capturer les cadres réglementaires de l'industrie de l'IA. »
Se tournant vers ses collègues lauréats du prix Turing, il a interpellé le professeur du MIT Max Tegmark, ainsi que Geoff Hinton et Yoshua Bengio, affirmant qu'ils fournissent involontairement des arguments à ceux qui militent pour des restrictions sur la recherche et le développement de l'IA ouverte. LeCun défend la recherche en IA ouverte comme un moyen fondamental de démocratiser l'accès technologique, soulignant que l'approche de Meta se concentre sur des initiatives open-source, illustrées par son modèle de langage phare, Llama 2.
Malgré les préoccupations du gouvernement américain selon lesquelles l'IA open-source pourrait renforcer des acteurs malveillants, LeCun soutient que limiter l'accès aux modèles d'IA est contre-productif. « Si vos campagnes basées sur la peur réussissent, elles mèneront inévitablement à une catastrophe : un contrôle concentré de l'IA par quelques entreprises triées sur le volet. La majorité de nos collègues académiques soutiennent massivement la recherche en IA ouverte. Très peu approuvent les scénarios apocalyptiques que vous présentez. »
LeCun soutient que les plateformes d'IA ouvertes devraient être la norme pour encourager des contributions diverses et un engagement démocratique dans le domaine. « Dans un avenir où les systèmes d'IA incarnent la connaissance et la culture humaines collectives, il est essentiel que les plateformes restent open-source et accessibles. Cette ouverture est cruciale pour que ces plateformes reflètent fidèlement l'ensemble des expériences et des insights humains », a-t-il expliqué. « Les contributions doivent être crowdsourcées, comme sur Wikipedia, ce qui est irréalisable sans plateformes ouvertes. »
Il a averti que des réglementations strictes pourraient étouffer l'IA open-source, menant à un contrôle monopolistique des plateformes d'IA par quelques entreprises de la côte ouest américaine et chinoises. « Quelles implications cela aurait-il pour la démocratie et la diversité culturelle ? C'est cela qui me préoccupe vraiment. »
Les commentaires critiques de LeCun interviennent alors que des rapports indiquent que le prochain sommet britannique se concentrera principalement sur les risques liés à l'IA. Répondant à ces préoccupations, il a plaisanté sur Twitter au sujet du Premier ministre britannique, espérant qu'il ne développerait pas une « Maladie de la Délibération Fataliste Existentialiste liée à l'IA (EFRAID) », espérant de façon ludique qu'elle ne se propage pas à d'autres dirigeants mondiaux. Bien qu'invité au sommet, ses remarques ont suscité un débat avec Tegmark, relançant la discussion sur le sujet.
Ce discours s'est intensifié après que Hinton, souvent surnommé le "parrain de l'IA", ait averti le 27 octobre que les entreprises prévoient de développer des modèles utilisant une puissance de calcul exponentiellement plus grande dans un avenir proche, soulevant des inquiétudes quant à l'absence de réglementations régissant leurs capacités. LeCun a répondu à l'affirmation de Hinton, en soulignant que si les futurs systèmes d'IA suivent les architectures existantes, ils pourraient atteindre des niveaux élevés de connaissance mais manqueraient encore de raisonnement, d'inventivité et de compréhension du monde physique.
« Les futurs systèmes doivent adopter des architectures innovantes qui leur permettent de raisonner, de planifier et d'opérer dans des objectifs et des garde-fous définis », a-t-il affirmé. « Ces cadres axés sur un but garantiront la sécurité et le contrôle, car nous dictons leurs visées, empêchant toute intention dominante. » Il s'est fermement opposé à l'idée que les systèmes avancés d'IA chercheront inévitablement à dominer l'humanité, arguant que de telles croyances sont fondamentalement erronées.