Demostración Oficial de OpenAI SearchGPT Revela Vulnerabilidad: Descubriendo los Secretos del Código Fuente y el Mecanismo de Búsqueda

Título: Desafíos de SearchGPT: La Batalla entre Ilusión y Realidad

Apenas dos días después del lanzamiento de SearchGPT, una demostración realizada por el usuario Kesku generó gran revuelo en línea, principalmente por su asombroso ritmo de resultados. Sin embargo, una demostración oficial de OpenAI fue objeto de análisis en un informe de The Atlantic, que reveló algunas inexactitudes significativas. Cuando se consultó sobre "el festival de música en Boone, Carolina del Norte, en agosto," SearchGPT sorprendió al proporcionar la fecha incorrecta, lo que suscitó preocupaciones sobre su fiabilidad.

La portavoz de OpenAI, Kayla Wood, confirmó el error a The Atlantic, afirmando que se trataba de un prototipo inicial y que se están realizando mejoras. Este incidente recuerda a un gran error de Bard de Google, que también enfrentó críticas por sus inexactitudes al ser lanzado. En febrero de 2023, Bard afirmó erróneamente que el Telescopio Espacial James Webb había captado la primera imagen de un exoplaneta, cuando en realidad este logro correspondió al VLT del Observatorio Europeo del Sur. Este desliz provocó una caída del 9% en el precio de las acciones de Alphabet, eliminando $100 mil millones de su valor de mercado.

Por el contrario, OpenAI ha optado por un enfoque más cauteloso al limitar el acceso a pruebas internas, aprendiendo de la desafortunada experiencia de Google. Dado el contexto de acceso generalizado, incluso si OpenAI logra minimizar las «alucinaciones» en SearchGPT, un simple 1% de tasa de error podría resultar en millones de respuestas inexactas diariamente. Además, actualmente no existen métodos confiables para eliminar completamente las alucinaciones y errores en los modelos de lenguaje grandes (LLMs).

Andrej Karpathy ha señalado en Twitter que las alucinaciones no son meros errores, sino una característica distintiva de los LLMs. Los compara con "máquinas de soñar," que, al ser estimuladas, generan contenido que a menudo es útil pero que puede desviarse involuntariamente hacia errores factuales, resultando en "alucinaciones." Este mecanismo es fundamentalmente diferente de los motores de búsqueda tradicionales, que devuelven los documentos más relevantes de sus bases de datos sin crear respuestas completamente nuevas.

Karpathy sostiene que los modelos de búsqueda de IA actuales basados en LLMs no pueden garantizar resultados 100% precisos. Esto plantea una pregunta intrigante: en la transformación de los motores de búsqueda, ¿coexistirá la creatividad de los LLMs con la fiabilidad de los métodos de búsqueda tradicionales, o uno reemplazará al otro? Esta cuestión merece una cuidadosa consideración.

Most people like

Find AI tools in YBX