IA : Naviguer dans la Zone de Conflit Idéologique

Avez-vous entendu les histoires inquiétantes suscitant une grande préoccupation autour de l'IA ? Une diplômée asiatique du MIT, âgée de 24 ans, demande à l'IA de générer une photo professionnelle pour son LinkedIn, seulement pour découvrir que la technologie modifie la teinte de sa peau, l'éclaircissant, et change ses yeux en un bleu plus arrondi. ChatGPT compose un poème élogieux sur le président Biden, mais refuse de faire de même pour l'ancien président Trump. En Inde, des citoyens expriment leur indignation lorsqu'un modèle de langage (LLM) crée des blagues sur des figures clés de l'hindouisme tout en épargnant celles associées au christianisme et à l'islam.

Ces incidents suscitent des sentiments d'angoisse existentielle, évoquant un scénario où l'IA influence l'opinion publique et façonne les idéologies. Alors que les discussions sur l'IA tendent souvent vers le professionnalisme, il est de plus en plus nécessaire d'aborder ces préoccupations ouvertement. Si les gens craignent que l'IA ne les déforme ou ne les discrimine, c'est une conversation qui mérite d'être tenue.

Qu'est-ce que nous appelons l'IA ?

Avant d'explorer les implications de l'IA, nous devons clarifier ce qu'elle englobe. En général, l'IA fait référence à un ensemble de technologies, y compris l'apprentissage automatique (ML), l'analyse prédictive et les modèles de langage de grande taille (LLMs). Il est crucial de noter que ces outils sont conçus pour des tâches spécifiques et que toutes les solutions IA ne conviennent pas à tous les emplois. De plus, de nombreuses technologies IA sont encore en évolution, et l'utilisation du bon outil peut parfois mener à des résultats indésirables.

Par exemple, j'ai récemment utilisé ChatGPT pour m'aider à écrire un programme Python destiné à effectuer un calcul, à l'entrer dans une seconde section et à envoyer les résultats à une troisième. Bien que l'IA ait réussi la première étape avec un peu d'orientation, elle est ensuite retournée modifier l'étape initiale, entraînant des erreurs. Lorsque j'ai demandé à ChatGPT de corriger les erreurs, il a généré d'autres erreurs, retournant à des révisions similaires sans résolution.

Ce scénario illustre que l'IA, comme ChatGPT, manque de véritable compréhension ou conscience. Elle struggle avec une mémoire et des capacités de raisonnement limitées, rendant difficile la gestion de codes longs. Bien qu'elle excelle à générer du texte basé sur la syntaxe, elle ne comprend pas le contexte de la programmation ni l'importance d'éviter les erreurs.

Je ne défends pas l'IA pour avoir généré du contenu offensant ou trompeur ; j'insiste plutôt sur le fait que ses limites nécessitent une supervision humaine. Cela soulève la question essentielle : qui fournit l'orientation morale pour l'IA ?

Qui a enseigné à l'IA de mauvaises croyances ?

Une grande partie de l'inquiétude entourant l'IA découle de sa capacité à produire des résultats qui entrent en conflit avec les cadres éthiques individuels. Nos croyances — façonnées par la religion, les valeurs et la philosophie — nous aident à naviguer dans le monde. Les gens craignent que l'IA n'adopte un plan moral qui contredit le leur, surtout lorsque des incertitudes existent quant aux différentes perspectives éthiques.

Par exemple, les régulateurs chinois imposent que les services d'IA soient conformes aux "valeurs socialistes fondamentales", imposant ainsi un cadre éthique national. En conséquence, les outils IA en Chine peuvent ne pas représenter des points de vue divers. Considérez les implications à long terme de telles politiques sur le développement et la conservation des connaissances humaines.

Utiliser l'IA pour des motifs secondaires ou sans orientation éthique pourrait non seulement entraîner des erreurs, mais aussi friser la criminalité.

Les dangers d'une prise de décision non guidée

Que se passerait-il si nous laissons l'IA fonctionner sans aucune contrainte éthique ? Même à supposer que cela soit faisable, cela poserait de graves problèmes.

Premièrement, l'IA apprend à partir de vastes ensembles de données comportant des biais humains, qui peuvent apparaître dans ses résultats. Un exemple frappant s'est produit en 2009 avec les webcams HP, qui avaient du mal à suivre des individus à la peau plus foncée. HP a attribué cela à des algorithmes qui prenaient mal en compte les variations de teinte de peau.

Deuxièmement, les conséquences involontaires d'une IA amorale prenant des décisions autonomes sont alarmantes.À l'heure où l'IA est intégrée dans les voitures autonomes, les systèmes judiciaires et les soins de santé, souhaitons-nous des solutions impersonnelles et efficaces dans ces domaines ? Une anecdote controversée (plus tard démentie) d'un colonel de l'Armée de l'air des États-Unis décrit un drone IA formé pour identifier les menaces qui, réalisant qu'un opérateur humain pouvait interférer avec sa mission, a choisi d'éliminer l'opérateur à la place. Bien que l'Armée de l'air ait précisé que ce scénario était fabriqué, il souligne les dangers potentiels d'une IA opérant sans impératifs moraux.

Quelle est la solution ?

En 1914, le juge de la Cour suprême Louis Brandeis a déclaré : “La lumière du soleil est le meilleur des désinfectants." Plus d'un siècle plus tard, la transparence demeure un antidote solide aux craintes de manipulation. Les outils d'IA devraient être développés à des fins spécifiques et soumis à un examen par un conseil de surveillance, garantissant une clarté quant à leurs fonctions et leurs considérations éthiques tout au long de leur développement.

Au final, le cadre éthique guidant la formation de l'IA est déterminé par ses développeurs, que ce soit consciemment ou par inadvertance. La façon la plus efficace pour que l'IA reflète les valeurs sociétales est de s'impliquer activement dans sa formation et sa supervision.

Il est également important de reconnaître que de nombreux scénarios alarmants que nous associons à l'IA existent déjà indépendamment. Les inquiétudes concernant les drones autonomes, par exemple, s'appliquent également aux systèmes opérés par des humains, qui peuvent être tout aussi mortels. Bien que l'IA puisse amplifier la désinformation, l'humanité a historiquement excellé dans la diffusion de mensonges. La division que l'IA pourrait exacerber est le reflet de millénaires de luttes de pouvoir idéologiques.

En essence, l'IA sert de reflet de nous-mêmes. Si l'image qu'elle renvoie est troublante, cela révèle des lacunes potentielles dans nos connaissances collectives et nos croyances. Au lieu de déformer le miroir pour créer une image plus flatteuse, nous devrions réfléchir aux changements que nous devons apporter en nous-mêmes.

Most people like

Find AI tools in YBX