- Desde un poder desconocido hasta una herramienta confiable, construir el futuro de la IA se trata de hacer las preguntas correctas.
Por: Dr. Kobi Leins. Miembro Senior Honorario, Departamento de Estudios de Guerra, King's College London
La Reunión Anual de ISO se celebrará en Brisbane, Australia, del 18 al 22 de septiembre de 2023. ISO y sus miembros se unen a los creadores de cambios mundiales para mostrar cómo las normas internacionales ayudan a abordar los mayores desafíos del mundo. Publicado en el período previo al evento, nuestra serie de artículos invitados proporciona información sobre una variedad de temas que se discutirán durante la semana.
En la vida cotidiana, la conversación más común sobre inteligencia artificial (IA) va en la línea: "Usé ChatGPT e hizo x". Los líderes corporativos, los gobiernos y las organizaciones internacionales, sin embargo, están teniendo una conversación muy diferente. El suyo trata sobre cómo los beneficios de la IA se pueden usar de manera que superen los riesgos.
Algunos argumentan que necesitamos regular urgentemente la IA, otros comparan la IA con el movimiento nuclear y algunos incluso advierten que acabará con el mundo. Al mismo tiempo, muchos consultores y start-ups nos quieren hacer creer que la IA es la panacea para todos nuestros males comerciales y personales, incluyendo el amor, la vida y la letalidad. Es demasiado pronto para sacar muchas conclusiones, pero es importante que las personas adecuadas tengan las conversaciones correctas.
Solo entonces esta tecnología innovadora puede apoyar y empoderar a la humanidad.
Hacer las preguntas correctas
La verdad es que hay muchas conversaciones sobre IA que no estamos teniendo y que deberíamos tener. Estos incluyen las implicaciones sociales más amplias de acelerar la desigualdad y reducir a las personas a puntos de datos, hasta un punto en el que puedan presentarse como redundantes o que ya no tengan valor. Cada desarrollo de la ciencia a lo largo de la historia ha tenido beneficios y riesgos. De hecho, los fracasos históricos pueden enseñarnos lecciones, para evitar cometer los mismos errores. La IA, aunque distinta en algunos aspectos, plantea muchos de los mismos peligros potenciales que los cambios de paradigma anteriores. Las promesas excesivas, el riesgo minimizado y los intereses comerciales que influyen en las conversaciones no son nuevos. Entonces, ¿qué hay de nuevo? ¿Y por qué debería importarnos?
Mucho de lo que estamos hablando es viejo. Los modelos de lenguaje han existido desde que Weizenbaum, el creador de uno de los primeros chatbots, Eliza, acuñó la idea del pensamiento mágico en torno a los modelos de lenguaje en la década de 1950. Más recientemente, las propias comunidades de ciencia de datos comenzaron a plantear preocupaciones sobre algunas propuestas sobre cómo podríamos usar ChatGPT2, incluso para automatizar las sentencias, potencialmente a la pena de muerte, sin intervención humana. Aunque la tecnología ahora está sobrealimentada en conjuntos de datos más grandes, muchos de los viejos problemas permanecen. Lo que es nuevo es la velocidad y la escala de estos modelos, y de dónde provienen sus datos.
El hecho es que no podemos pensar en los riesgos de la IA a lo largo de líneas convencionales.
Gobernanza
La buena noticia es que ya existe toda una caja de herramientas de gobernanza. Esto incluye legislación internacional y nacional sobre propiedad intelectual, comportamiento corporativo, derechos humanos, discriminación, contratos y privacidad, solo por nombrar algunos.
Muchos expertos de todo el mundo, como el Prof. Edward Santow, han abogado durante mucho tiempo por la mejora de las habilidades de los abogados para que puedan comprender y aplicar tanto la legislación existente como las nuevas tecnologías dentro de su profesión.
Sin embargo, paralelamente a la legislación, también debería considerarse una mayor regulación. Ya existen marcos regulatorios, como la recientemente formulada Ley de IA de la UE, el Instituto Nacional de Estándares y Tecnología y la nueva política de China sobre IA. Pero algunos necesitan actualización o revisión, y hay lagunas. Y donde hay lagunas, debemos regular.
Mitigar el riesgo, maximizar la recompensa
El hecho es que no podemos pensar en los riesgos de la IA a lo largo de líneas convencionales. Andrew Maynard, profesor de ASU y experto de larga data en riesgos, se mantiene firme en esto: el pensamiento tradicional simplemente no "nos lleva a donde necesitamos estar".
Las normas internacionales como las de ISO/IEC JTC 1/SC 42 sobre gestión de IA ayudarán a cerrar estas brechas en la regulación. Empoderan a los responsables de la toma de decisiones y a los responsables políticos para crear datos y procesos coherentes de una manera que sea auditable. Esto agregará valor a las empresas a largo plazo de muchas maneras, incluso para la presentación de informes ambientales, la operatividad y la credibilidad con las partes interesadas. Este enfoque garantizará que las recompensas superen los riesgos, en línea con las regulaciones y otras herramientas de gobernanza.
La ética de los datos también tiene un papel que desempeñar. Si se usa y aplica correctamente, la ética de datos puede ayudar a fomentar el deseo, desde las decisiones de liderazgo hasta las tareas cotidianas, de "hacer las cosas no solo porque puedes, sino porque deberías".
Pero lo más importante es que las Normas Internacionales pueden garantizar que las personas adecuadas tengan las conversaciones correctas, utilizando un lenguaje compartido. Puede llevar tiempo construir las herramientas regulatorias y la cultura que necesitamos. Pero las normas internacionales pueden ayudar a garantizar que logremos el equilibrio adecuado entre riesgo y recompensa.
Acerca de Kobi Leins
El Dr. Kobi Leins (GAICD) es un experto mundial en IA, derecho internacional y gobernanza. Investigadora en ética digital, oradora prolífica y autora de numerosas publicaciones, ha desempeñado un papel fundamental en el avance de la comprensión de la IA. Su trabajo une la innovación y las aplicaciones del mundo real, haciendo que los conceptos complejos sean accesibles para una audiencia diversa.
Kobi Leins hablará en la próxima Reunión Anual de ISO. ¡Participa en la conversación! Únase a nuestra sesión en línea "Listo o no, aquí viene la IA" para descubrir las implicaciones políticas, sociales y éticas de la inteligencia artificial.
¿Tiene algún comentario?
Compártanoslo.