Près de la moitié de l'équipe de sécurité de l'AGI d'OpenAI quitte l'entreprise en raison d'inquiétudes croissantes concernant les problèmes de sécurité de l'IA.

OpenAI Confronté à un Important Départ de Personnel dans l'Équipe de Sécurité de l'AGI, Soulevant des Inquiétudes sur la Sécurité de l'IA

Récemment, OpenAI, un leader dans le domaine de l'intelligence artificielle, a traversé une crise de personnel considérable. Plusieurs anciens employés ont révélé que l'équipe chargée de la sécurité de l'Intelligence Générale Artificielle (AGI) a été réduite de manière drastique au cours des derniers mois, passant d'environ 30 membres à environ 16. Ce changement a suscité des inquiétudes au sein de la communauté technologique et du grand public quant à l'engagement d'OpenAI en matière de sécurité de l'IA.

Selon un rapport de Fortune, l'ancien chercheur en gouvernance Daniel Kokotajlo a expliqué que ces départs récents n'étaient pas une décision de l'ensemble de l'entreprise, mais plutôt un choix volontaire de plusieurs membres de l'équipe, qui se sentaient mal à l'aise vis-à-vis de la direction et des stratégies futures de l'entreprise. L'équipe de sécurité de l'AGI est principalement chargée d'évaluer et de réduire les risques potentiels présentés par les systèmes d'IA superintelligents, veillant à ce que ces technologies ne menacent pas l'existence humaine.

En plus des réductions au sein de l'équipe de sécurité de l'AGI, le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a récemment annoncé sa démission, entraînant la dissolution de son équipe dédiée à la "super alignement" axée sur la sécurité de l'IA. Cette série de changements à des niveaux élevés a intensifié les préoccupations quant à une éventuelle dérive d'OpenAI par rapport à sa mission initiale de développer des technologies d'IA au service de l'humanité.

Un porte-parole d'OpenAI a confirmé l'engagement continu de l'entreprise à fournir des systèmes d'IA avancés et sécurisés, soulignant leur approche scientifique pour gérer les risques potentiels. Cependant, ces assurances n'ont pas apaisé l'anxiété publique concernant la diminution de l'accent mis sur la sécurité de l'IA.

Les experts du secteur soulignent qu'à mesure que la technologie de l'IA continue d'évoluer rapidement, il devient de plus en plus crucial d'assurer sa sécurité et sa contrôlabilité. En tant qu'entité leader dans le secteur de l'IA, la position et les investissements d'OpenAI dans la sécurité de l'IA auront un impact significatif sur l'évolution de l'industrie et sur la confiance de la société dans les développements de l'IA.

Le départ massif de l'équipe de sécurité de l'AGI constitue un signal d'alarme pour l'ensemble de l'industrie, soulignant la nécessité pour les entreprises et les individus engagés dans la recherche et le développement de l'IA de prioriser la sécurité et les considérations éthiques. Il est essentiel que les avancées technologiques profitent réellement à l'humanité plutôt que de poser de nouvelles menaces à la survie humaine.

Most people like

Find AI tools in YBX