Las organizaciones en general subestiman significativamente el riesgo de IA. La mala implementación de la IA puede perpetuar las desigualdades existentes en el lugar de trabajo
KRISSY KATZENSTEIN, BRAD NEWMAN, ROBIN J. SAMUEL Y JULIA WILSON
En medio del revuelo reciente en torno a ChatGPT y la inteligencia artificial generativa (IA), muchos están ansiosos por aprovechar el potencial cada vez más sofisticado de la tecnología.
Sin embargo, los hallazgos de la encuesta de IA de América del Norte de 2022 de Baker McKenzie indican que los líderes empresariales actualmente pueden subestimar los riesgos relacionados con la IA para su organización.
Solo el 4% de los encuestados de nivel C-suite dijeron que consideran que los riesgos asociados con el uso de IA son "significativos", y menos de la mitad dijo que tiene experiencia en IA a nivel de directorio.
Estas cifras resaltan una realidad preocupante: muchas organizaciones no están preparadas para la IA y carecen de la supervisión y la experiencia adecuadas de los tomadores de decisiones clave para gestionar el riesgo. Y si no se abordan, es probable que los puntos ciegos organizacionales en torno al despliegue ético y efectivo de la tecnología eclipsen las oportunidades transformadoras y hagan que las organizaciones pierdan el ritmo con el crecimiento explosivo de la tecnología.
¿CÓMO ESTÁ CAMBIANDO LA IA GENERATIVA EL PANORAMA DE RIESGOS?
En estos días, el progreso y la adopción relacionados con la IA están ocurriendo a un ritmo exponencial; algunos argumentan que es demasiado rápido.
Si bien este crecimiento exponencial ha renovado el enfoque en el uso de la IA, la realidad es que académicos, científicos, legisladores, profesionales del derecho y otros han estado haciendo campaña desde hace algún tiempo para el uso y despliegue ético y legal de la IA, particularmente en el lugar de trabajo donde abundan las aplicaciones existentes de IA en la función de recursos humanos (por ejemplo, adquisición de talento, tareas administrativas, capacitación de empleados).
Según nuestra encuesta, el 75% de las empresas ya utilizan herramientas y tecnología de inteligencia artificial para fines de contratación y recursos humanos.
En esta nueva fase de IA generativa, los principios básicos en torno a la adopción de IA, como la gobernanza, la responsabilidad y la transparencia, son más importantes que nunca, al igual que las preocupaciones sobre las consecuencias de una IA mal implementada.
Por ejemplo, los algoritmos no controlados pueden generar resultados sesgados y discriminatorios, perpetuar las desigualdades y frenar el progreso de la diversidad de la fuerza laboral. La privacidad de los datos y las infracciones son otra preocupación, que ocurre fácilmente a través de la no anonimización y la recopilación de datos de los empleados.
La IA generativa también ha dado paso a nuevas consideraciones de propiedad intelectual, lo que plantea interrogantes sobre la propiedad tanto de las entradas como de las salidas de programas de terceros y las consiguientes preocupaciones por la infracción de los derechos de autor.
En términos generales, hemos visto a los gobiernos y los reguladores esforzarse por implementar la legislación relacionada con la IA y los mecanismos de cumplimiento normativo. En EE.UU., un enfoque clave de la legislación emergente será el caso de uso de la IA en las operaciones relacionadas con la contratación y los recursos humanos.
Los litigios, incluidas las acciones colectivas, también están en el horizonte. Ya estamos viendo la primera ola de litigios generativos de PI de IA en EE.UU., y estas primeras decisiones judiciales están dando forma al panorama legal en ausencia de la regulación existente.
Las organizaciones que implementan IA generativa también deben asumir que los proveedores externos de la tecnología recopilarán los datos introducidos en las herramientas y consultas de IA. En algunos casos, estos proveedores tendrán derechos de uso y/o divulgación de estos insumos.
A medida que los empleadores buscan equipar a su fuerza laboral con herramientas de IA generativa, ¿están poniendo en riesgo los datos confidenciales y los secretos comerciales? En resumen, sí. En general, cada nuevo desarrollo parece abrir preguntas más rápido de lo que las organizaciones, los reguladores y los tribunales pueden responder.
¿CÓMO PUEDEN LAS ORGANIZACIONES MEJORAR SU PREPARACIÓN PARA LA IA?
La IA generativa está cambiando el paradigma y seguirán surgiendo riesgos en torno a casos de uso específicos. Para mantenerse a la vanguardia, las organizaciones deberán mover los enfoques actuales más allá de los esfuerzos aislados y reunir funciones discretas bajo el paraguas de un marco de gobierno sólido.
Si bien muchas organizaciones confían en los científicos de datos para encabezar las iniciativas de IA, todas las partes interesadas relevantes, incluidos los departamentos legales, el C-suite, las juntas directivas, la privacidad, el cumplimiento y los recursos humanos, deben participar en todo el proceso de toma de decisiones.
Esta brecha de representación quedó clara en los resultados de nuestra encuesta. Actualmente, solo el 54% de los encuestados dijo que su organización involucra a RR.
En este entorno de alto riesgo, la CAIO desempeñará un papel fundamental para garantizar que exista una gobernanza y supervisión relevantes a nivel de C-Suite e involucrar a Recursos Humanos en la capacitación y el fomento de un equipo multifuncional de IA.
Junto con esto, las organizaciones deben preparar y seguir un marco de gobierno interno que tenga en cuenta los riesgos empresariales en todos los casos de uso y permita a la empresa realizar de manera eficiente los ajustes de cumplimiento correctos una vez que se identifiquen los problemas.
El riesgo para las empresas que no tienen una estructura de gobierno de IA y la falta de supervisión de las partes interesadas clave, o aquellas que dependen mayoritariamente de herramientas de terceros, es el uso de herramientas de IA de una manera que crea responsabilidad legal organizacional (por ejemplo, reclamos por discriminación).
Prácticamente toda la toma de decisiones, ya sea basada en IA o no, crea sesgos. Las empresas que utilizan estas herramientas deben desarrollar un marco que identifique un enfoque para evaluar el sesgo y un mecanismo para probar y evitar el sesgo ilegal, además de garantizar que se cumplan los requisitos de privacidad de datos relevantes.
Los esfuerzos para combatir el sesgo deben respaldarse aún más con medidas efectivas para las pruebas previas y posteriores al despliegue.
Las empresas que implementan IA también deben asegurarse de que existan procesos que brinden una comprensión clara de los conjuntos de datos que se utilizan, la funcionalidad algorítmica y las limitaciones tecnológicas, ya que la legislación propuesta probablemente incluirá requisitos de informes.
LA PERSPECTIVA FINAL PARA LA IA
La conclusión es simple: la IA se está adoptando amplia y rápidamente y proporciona muchos beneficios. Pero se está implementando y desarrollando tan rápidamente que la supervisión estratégica y la gobernanza se vuelven aún más críticas para su uso responsable y la mitigación de riesgos.
Muchas organizaciones no están preparadas para la IA y subestiman los riesgos, lo que hace que la voluntad de implementar esta tecnología sea preocupante sin las medidas de seguridad adecuadas.
Afortunadamente, al establecer estructuras sólidas de gobernanza y supervisión, las organizaciones pueden resistir estas mareas tecnológicas sin importar dónde se encuentren en sus viajes de IA.
Más allá de esto, la solución a largo plazo para gestionar el riesgo relacionado con la IA dependerá de que las partes interesadas informadas del sector legal, regulatorio y privado unan sus fuerzas para promover la legislación, los códigos de práctica o los marcos de orientación que reconozcan tanto las oportunidades como los riesgos que presenta la tecnología.
Con un marco seguro implementado, las organizaciones pueden permitirse implementar la tecnología de IA y aprovechar sus beneficios con mayor confianza.