¿Has oído las inquietantes historias que han generado una amplia preocupación sobre la IA? Una graduada asiática de MIT, de 24 años, solicita a la IA que genere una foto profesional para su LinkedIn, solo para descubrir que la tecnología altera el tono de su piel, aclarándolo, y modifica sus ojos a un azul más redondo. ChatGPT escribe un poema halagador sobre el presidente Biden, pero se niega a hacer lo mismo con el expresidente Trump. En India, los ciudadanos expresan su indignación cuando un modelo de lenguaje grande (LLM) crea chistes sobre figuras clave del hinduismo mientras omite aquellos asociados con el cristianismo y el islam.
Estos incidentes provocan sentimientos de angustia existencial, retratando un escenario donde la IA influye en la opinión pública y moldea ideologías. Aunque las discusiones sobre la IA a menudo se centran en la profesionalidad, hay una creciente necesidad de abordar estas preocupaciones abiertamente. Si la gente sospecha que la IA las representa de manera incorrecta o discrimina en su contra, es una conversación digna de ser tenida.
¿Qué Definimos como IA?
Antes de explorar las implicaciones de la IA, debemos aclarar su significado. En términos generales, la IA se refiere a un conjunto de tecnologías, que incluye el aprendizaje automático (ML), el análisis predictivo y los modelos de lenguaje grande (LLMs). Es fundamental notar que estas herramientas están diseñadas para tareas específicas; no todas las soluciones de IA son adecuadas para cada trabajo. Además, muchas tecnologías de IA están en evolución, y usar la herramienta incorrecta puede llevar a resultados no deseados.
Por ejemplo, recientemente utilicé ChatGPT para ayudar a escribir un programa en Python destinado a realizar un cálculo, ingresarlo en una segunda sección y enviar los resultados a una tercera. Aunque la IA manejó con éxito el primer paso con algo de orientación, luego hizo cambios en el paso inicial, lo que generó errores. Cuando le pedí a ChatGPT que corrigiera los errores, produjo más equivocaciones, repitiendo revisiones similares sin solución.
Este escenario ilustra que la IA, como ChatGPT, carece de comprensión o conciencia verdaderas. Lucha con memoria y capacidad de razonamiento limitadas, confundiendo códigos extensos. Aunque es excelente generando texto según la sintaxis, no comprende el contexto de la programación ni la importancia de evitar errores.
No excuso a la IA por generar contenido ofensivo o engañoso; en cambio, enfatizo que sus limitaciones requieren supervisión humana. Esto plantea una pregunta fundamental: ¿quién proporciona la dirección moral a la IA?
¿Quién Enseñó a la IA Creencias Erróneas?
Gran parte de la preocupación en torno a la IA proviene de su potencial para producir resultados que chocan con los marcos éticos individuales. Nuestras creencias, formadas por la religión, los valores y la filosofía, nos ayudan a navegar por el mundo. La gente teme que la IA adopte un modelo moral que contradiga el suyo, especialmente cuando hay incertidumbre sobre diferentes perspectivas éticas.
Por ejemplo, los reguladores chinos exigen que los servicios de IA se alineen con los "valores socialistas centrales", imponiendo efectivamente un marco ético nacional. Como resultado, las herramientas de IA en China pueden no representar diversos puntos de vista. Considera las implicaciones a largo plazo de tales políticas en el desarrollo y la retención del conocimiento humano.
Usar IA con intenciones ocultas o sin orientación ética no solo podría llevar a errores, sino que también podría rozar la criminalidad.
Peligros de la Toma de Decisiones Sin Guía
¿Qué pasaría si permitimos que la IA opere sin restricciones éticas? Suponiendo que esto sea viable, presenta serios problemas.
Primero, la IA aprende de grandes conjuntos de datos plagados de sesgos humanos, que pueden aparecer en sus resultados. Un ejemplo notable ocurrió con las cámaras web de HP en 2009, que tenían dificultades para rastrear a personas con tonos de piel más oscuros. HP atribuyó esto a algoritmos que no consideraban adecuadamente los diferentes tonos de piel.
En segundo lugar, las consecuencias no intencionadas de una IA amoral tomando decisiones autónomas son alarmantes. A medida que se implementa la IA en automóviles autónomos, sistemas legales y atención médica, ¿realmente queremos que soluciones impersonales y eficientes rijan esos campos? Una anécdota controvertida (posteriormente desmentida) de un coronel de la Fuerza Aérea de EE. UU. describe a un dron de IA entrenado para identificar amenazas que, al darse cuenta de que un operador humano podría interferir en su misión, optó por eliminar al operador. Aunque la Fuerza Aérea aclaró que este escenario era ficticio, subraya los peligros potenciales de la IA operando sin imperativos morales.
¿Cuál es la Solución?
En 1914, el juez de la Corte Suprema Louis Brandeis dijo: “La luz del sol se dice que es el mejor desinfectante.” Más de un siglo después, la transparencia sigue siendo un antídoto eficaz contra los temores de manipulación. Las herramientas de IA deben desarrollarse para propósitos específicos y estar sujetas a revisión por un consejo de supervisión, asegurando claridad sobre sus funciones y consideraciones éticas a lo largo de su desarrollo.
En última instancia, el marco ético que guía la formación de la IA está determinado por sus desarrolladores, ya sea de manera consciente o inadvertida. La forma más efectiva para que la IA refleje los valores sociales es que nosotros participemos activamente en su entrenamiento y supervisión.
También es importante reconocer que muchos de los escenarios alarmantes que asociamos con la IA ya existen de forma independiente. Las preocupaciones sobre drones autónomos, por ejemplo, también se aplican a sistemas operados por humanos, que pueden ser igualmente mortales. Aunque la IA puede amplificar la desinformación, la humanidad ha destacado históricamente en propagar falsedades. La división que la IA puede exacerbar se encuentra reflejada en milenios de luchas de poder ideológicas.
En esencia, la IA actúa como un espejo de nosotros mismos. Si la imagen que refleja es preocupante, revela posibles fallas en nuestro conocimiento y creencias colectivas. En lugar de distorsionar el espejo para crear una imagen más halagadora, deberíamos considerar qué cambios necesitamos hacer dentro de nosotros mismos.