_
_
_
_
_

La Fundación Cotec llama a las empresas a hacer un uso responsable de la inteligencia artificial

La entidad ha presentado este jueves un documento en el que enumera los múltiples riesgos a los que se enfrentan las compañías al utilizar esta nueva tecnología

La presidenta de Cotec, Cristina Garmendia, interviene en la presentación del Anuario 2023 de la Fundación, el pasado octubre.
La presidenta de Cotec, Cristina Garmendia, interviene en la presentación del Anuario 2023 de la Fundación, el pasado octubre.chema Moya (EFE)
Álvaro Sánchez

En paralelo a su progresiva implantación, la inteligencia artificial se ha convertido en objeto de múltiples estudios sobre su impacto, especialmente acerca de sus consecuencias en el empleo. El último ha sido el presentado este jueves por la Fundación Cotec, que agrupa a un centenar de empresas privadas y administraciones de los ámbitos regional y local. La conclusión principal es que la inteligencia artificial ha venido para quedarse, “y no se la debe temer como una amenaza, sino que se trata de una herramienta que nos va a permitir explorar nuevas capacidades en todos los ámbitos de la empresa y la vida en general. Lo que nos queda es que su uso sea responsable”.

El documento, elaborado por un grupo de trabajo liderado por Repsol y Tecnatom, ha contado con la participación de más de cuarenta entidades, entre ellas Adif, Mercadona o Telefónica, y está enfocado en los problemas que las empresas se van a encontrar próximamente, así como en sus soluciones. Estos son algunos de ellos.

Falta de precisión. Cuando se recurre a la inteligencia artificial, la intención es acelerar procesos, pero la velocidad solo es una virtud si va acompañada de datos correctos, por eso, las empresas deben estar atentas a posibles “alucinaciones”, como denomina a las informaciones que, aunque estén escritas de forma coherente contengan algún dato incorrecto. Para evitarlo, recomienda enriquecer las instrucciones con técnicas avanzadas para mejorar la precisión de las respuestas, ajustar el rendimiento, y los modelos con otras herramientas.

Problemas de seguridad. La posibilidad de que terceras personas no autorizadas accedan a `la herramienta “podría abocar a situaciones de desinformación” y a fraudes. Para remediarlo, ve necesario desplegar filtros para proteger y mejorar la seguridad de los datos y reforzar las políticas de ciberseguridad

Sin equidad ni imparcialidad. Los sesgos de la herramienta puede ocasionar problemas de “infrarrepresentación de determinados colectivos”, por lo que llaman a realizar revisiones para evitarlo.

Falta de transparencia y trazabilidad. Existe la posibilidad de que los usuarios sepan que están leyendo contenido creado por inteligencia artificial generativa. O que el modo en que esta haya llegado a los resultados sea opaco, por lo que reclama a las empresas que informen de cuando usen inteligencia artificial.

Infringir la propiedad intelectual. Se refiere al uso no consentido de información protegida en el desarrollo o entrenamiento de la herramienta, por lo que hay que asegurarse de que no se dan situaciones así. “Para ello, entre otras medidas, resulta necesario conocer el origen de la base de datos/activos protegibles de los que se nutre la herramienta”, dice Acotec.

Consumo energético excesivo. Entrenar modelos de IAG a gran escala puede requerir “una cantidad significativa de recursos computacionales y energía”. Y eso redunda en una huella de carbono digital negativa. Además, la obsolescencia de los modelos ante los rápidos avances de IA puede hacer que queden anticuados pronto.

Gestión de talento. La implementación de herramientas de IAG en ciertos sectores puede resultar en la automatización de tareas, “lo que podría llevar al desplazamiento de empleados que realizan esas tareas de manera manual”. Esto podría generar tensiones y preocupaciones en el personal. La incertidumbre asociada con la implementación de tecnologías avanzadas, como las herramientas de IAG, puede generar preocupaciones entre los empleados acerca de la seguridad a largo plazo de sus trabajos, así como entrenar nuevas habilidades tecnológicas.

Alto coste. La inversión inicial en la implementación de herramientas de IA, así como los costos continuos de mantenimiento y actualización, “pueden ser significativos”, por lo que la gestión ineficiente de estos costos podría impactar negativamente en los resultados financieros.

Riesgo jurídico. Falta jurisprudencia en conflictos ligados a la IA, y los operadores jurídicos de las compañías, de abogados, estudiosos del derecho, o jueces y magistrados, carecen de un marco en el que basarse.

Para Juan José Casado, chief digital & data officer de Repsol, los cambios serán profundos. “Estamos viendo que esta nueva forma de inteligencia artificial, la generativa, va a tener un impacto enorme en la forma en que trabajan las personas, y va a suponer un cambio de paradigma muy importante en la productividad de las organizaciones. Va a aumentar nuestras capacidades como seres humanos y democratizar el acceso al conocimiento. Para saber algo solo necesitarás preguntarlo, no importa lo compleja que sea la temática, la IA te dará las respuestas. Y con su capacidad de generar imágenes, vídeo o música generará una ola de creatividad, además de permitir nuevos avances en la ciencia y la tecnología”.

Sigue toda la información de Economía y Negocios en Facebook y X, o en nuestra newsletter semanal

Sobre la firma

Álvaro Sánchez
Redactor de Economía. Ha sido corresponsal de EL PAÍS en Bruselas y colaborador de la Cadena SER en la capital comunitaria. Antes pasó por el diario mexicano El Mundo y medios locales como el Diario de Cádiz. Es licenciado en Periodismo por la Universidad de Sevilla y Máster de periodismo de EL PAÍS.
Tu comentario se publicará con nombre y apellido
Normas

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_