Recientemente, científicos de la Universidad de California, San Diego, han logrado avances significativos en inteligencia artificial (IA). En un experimento que evaluó la capacidad de la IA para imitar la comunicación humana, el modelo GPT-4 de OpenAI fue confundido con un humano el 54% de las veces, marcando la primera ocasión en que ChatGPT supera la Prueba de Turing.
La Prueba de Turing, concebida por el pionero de la informática Alan Turing en 1950, es un método clásico de evaluación. Esta establece que si una máquina puede comunicarse de manera indistinguible de un humano, ha superado la prueba. Según los estándares, se considera que la IA tiene éxito si es confundida con un humano más del 30% del tiempo.
En este estudio, 500 participantes humanos mantuvieron conversaciones de cinco minutos con cuatro modelos diferentes de lenguaje de IA. El modelo GPT-4 destacó, convenciendo exitosamente al 54% de los participantes de que era humano, cifra que, aunque inferior al promedio humano del 67%, supera el requisito mínimo para pasar la Prueba de Turing.
Este logro no solo resalta los avances significativos en la capacidad de la IA para replicar la comunicación humana, sino que también genera nuevas discusiones sobre el potencial de la IA para engañar y manipular. A medida que la tecnología de IA evoluciona rápidamente, hay una creciente preocupación por su posible uso para desinformar, lo que subraya la necesidad de colaboración entre científicos y éticos para desarrollar regulaciones más estrictas que aseguren un crecimiento responsable y sostenible de la IA.
El éxito del GPT-4 en la Prueba de Turing aporta un nuevo optimismo al campo de la IA. En el futuro, podemos esperar ver más sistemas de IA que exhiban inteligencia similar a la humana, impulsando el progreso y desarrollo de la sociedad.