La IA ha transformado drásticamente el panorama tecnológico, especialmente tras el lanzamiento público de ChatGPT. Sin embargo, el rápido avance de la IA plantea preocupaciones significativas. Instituciones líderes, como el laboratorio de investigación en IA Anthropic, advierten sobre sus potenciales capacidades destructivas, especialmente a medida que la competencia se intensifica con sistemas como ChatGPT. Los principales problemas incluyen la pérdida de millones de empleos, violaciones de la privacidad de datos y la proliferación de desinformación, que han captado la atención de actores globales, en particular de entidades gubernamentales.
En Estados Unidos, el Congreso ha intensificado su enfoque en la regulación de la IA, introduciendo varios proyectos de ley destinados a mejorar la transparencia, desarrollar un marco basado en riesgos, y más. En octubre, la administración Biden-Harris emitió una Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Seguro y Confiable de la Inteligencia Artificial. Esta orden detalla pautas en múltiples áreas, incluida la ciberseguridad, la privacidad, el sesgo, los derechos civiles, la discriminación algorítmica, la educación, los derechos laborales y la investigación. Además, como parte del G7, la administración introdujo recientemente un código de conducta para la IA.
De manera similar, la Unión Europea avanza con su propuesta legislativa de IA, conocida como el Acta de IA de la UE. Esta regulación se centra en herramientas de IA de alto riesgo que podrían violar derechos individuales, particularmente en sectores como la aviación. El Acta de IA de la UE enfatiza controles esenciales para la IA de alto riesgo, incluyendo robustez, privacidad, seguridad y transparencia. Los sistemas considerados de riesgo inaceptable estarán prohibidos en el mercado.
Aunque continúan las discusiones sobre el papel del gobierno en la regulación de la IA, una gobernanza efectiva también beneficia a las empresas. Encontrar un equilibrio entre innovación y regulación puede proteger a las organizaciones de riesgos innecesarios, al tiempo que les brinda una ventaja competitiva.
El Papel de las Empresas en la Gobernanza de la IA
Las empresas tienen la responsabilidad de mitigar los riesgos asociados con las tecnologías de IA. La dependencia de la IA generativa en grandes volúmenes de datos plantea importantes problemas de privacidad. Sin una gobernanza adecuada, la confianza y lealtad del consumidor pueden disminuir, ya que los clientes se preocupan por cómo se utiliza su información sensible.
Además, las empresas deben ser conscientes de las posibles responsabilidades vinculadas a la IA generativa. Si los materiales generados por IA se asemejan a obras existentes, las empresas podrían enfrentar reclamaciones por infracción de derechos de autor, exponiéndose a repercusiones legales y financieras.
Es crucial reconocer que las salidas de la IA pueden replicar sesgos sociales, incorporándolos a sistemas de toma de decisiones que impactan la asignación de recursos y la visibilidad mediática. Una gobernanza efectiva implica crear procesos sólidos para minimizar los riesgos de sesgo. Esto incluye involucrar a las partes afectadas en la revisión de parámetros y datos, fomentar una fuerza laboral diversa y refinar conjuntos de datos para generar resultados percibidos como justos.
De cara al futuro, establecer una gobernanza sólida es esencial para proteger los derechos individuales mientras se promueve el avance de tecnologías de IA transformadoras.
Un Marco para Prácticas Regulatorias
Implementar la debida diligencia puede mitigar riesgos, pero establecer un marco regulatorio sólido es igualmente importante. Las empresas deben centrarse en los siguientes aspectos clave:
Identificar y Abordar Riesgos Conocidos
Aunque las opiniones varían sobre las amenazas más apremiantes que representa la IA desenfrenada, hay consenso en diversas preocupaciones, como el desplazamiento laboral, violaciones a la privacidad, protección de datos, desigualdad social y problemas de propiedad intelectual. Las empresas deben evaluar los riesgos específicos relevantes para sus operaciones. Al alcanzar un consenso sobre estos riesgos, las organizaciones pueden crear directrices para abordarlos proactivamente.
Por ejemplo, mi empresa, Wipro, ha desarrollado un marco de cuatro pilares destinado a promover un futuro responsable impulsado por la IA, enfocándose en consideraciones individuales, sociales, técnicas y ambientales. Este marco sirve como una de las formas para que las empresas establezcan directrices robustas para sus interacciones con los sistemas de IA.
Mejorar las Prácticas de Gobernanza
Las organizaciones que utilizan IA deben priorizar la gobernanza para garantizar la responsabilidad y transparencia a lo largo del ciclo de vida de la IA. Implementar una estructura de gobernanza ayuda a documentar los procesos de entrenamiento de modelos, reduciendo los riesgos asociados con la falta de fiabilidad del modelo, la introducción de sesgos y los cambios en las relaciones entre variables.
Los sistemas de IA son inherentemente sociotécnicos, compuestos de datos, algoritmos e involucramiento humano. Por lo tanto, es vital integrar consideraciones tanto tecnológicas como sociales en los marcos regulatorios. La colaboración entre empresas, academia, gobierno y sociedad es esencial para prevenir el desarrollo de soluciones de IA por grupos homogéneos, lo que podría generar desafíos imprevistos.