(+34) 914 343 442 info@eflow.es

Cualquier usuario mínimamente avanzado de la Inteligencia Artificial generativa se pregunta, hoy, si no estaremos a las puertas de reproducir esa mítica expresión de “vigilar al vigilante”. Más allá del indudable impacto que la IA generativa está teniendo en la redefinición de los puestos de trabajo, con una combinación de eficiencia y automatización a caballo entre lo siniestro y lo admirable, el gran debate de futuro es el desafío de construir confianza en la IA. ¿Qué están haciendo las empresas? ¿Qué políticas de gobernanza están implementando? ¿Cómo logran (o no) herramientas transparentes, éticas y confiables? ¿Qué papel juega la capacitación en el uso responsable de la IA?

Uno de los principales problemas con el auge de la inteligencia artificial, en especial con el uso de agentes autónomos y IA generativa, es la percepción que los usuarios tienen sobre la transparencia de estas herramientas. La relación entre humanos y máquinas ha evolucionado rápidamente, pero en muchos sectores aún persiste el escepticismo y la falta de confianza en los sistemas de IA, principalmente debido a su falta de explicabilidad. Si los modelos y algoritmos que impulsan la IA no son lo suficientemente comprensibles, los usuarios difícilmente podrán confiar en sus decisiones o en la forma en que se llegan a ellas. Según Alvarez, un experto citado recientemente en VentureBeat, “si la gente pierde la confianza en la IA, no la utilizarán”. Esta afirmación subraya uno de los aspectos críticos que enfrenta la industria tecnológica en la actualidad: garantizar que la IA sea transparente, ética y se use de manera responsable.

El significativo énfasis en la gobernanza

Para abordar este reto, muchas empresas están recurriendo a nuevas plataformas de gobernanza de IA que permiten gestionar los sistemas de manera más ética y legal. Estas herramientas se enfocan no solo en el cumplimiento normativo, sino en la creación de un entorno donde los usuarios puedan tener un mayor control sobre cómo se utilizan los datos y qué mecanismos se aplican para evitar sesgos en los algoritmos. Un ejemplo de ello es el esfuerzo por parte de gigantes tecnológicos como Microsoft, que está liderando la implementación de políticas que aseguren un uso más responsable de la IA. La compañía ha lanzado Copilot Studio, una plataforma que permite a los usuarios desarrollar agentes de IA autónomos con mayor facilidad, pero al mismo tiempo ha invertido en medidas que garanticen que estos agentes operen bajo normas éticas claras, tal como aparece reseñado en este artículo de Fast Company.

Este énfasis en la gobernanza es fundamental, especialmente cuando la IA comienza a desempeñar roles que antes requerían supervisión humana constante. Por ejemplo, en el sector empresarial, las tareas rutinarias que los humanos solían realizar, como la gestión de consultas de clientes o el seguimiento de inventarios, ahora pueden ser realizadas por agentes de IA. Esto no solo representa un cambio en la naturaleza del trabajo, sino también un cambio en la forma en que se perciben los riesgos asociados. La automatización masiva, aunque optimiza procesos de forma eficiente, plantea preguntas éticas sobre las decisiones autónomas de la IA y cómo se pueden auditar o corregir en caso de error.

Pero la confianza en la IA no se limita a la tecnología en sí; también depende de la formación y preparación de los trabajadores para su correcta implementación. Muchas empresas están priorizando la capacitación de sus empleados en el uso y gestión de herramientas de IA, lo que está ayudando a mitigar algunos de los temores sobre el desplazamiento laboral y la desinformación.

Futuro laboral, normativas y usuarios

Según un informe de CIO Dive, gigantes corporativos como JPMorgan Chase y S&P Global han adoptado una postura proactiva al incorporar programas intensivos de upskilling para preparar a sus empleados en la integración de la IA en el entorno laboral. En lugar de temer que la IA reemplace a los empleados, estas compañías están enseñando a sus equipos cómo trabajar junto a la IA, utilizando nuevas capacidades como el prompt engineering (ingeniería de indicaciones) para maximizar el uso de las herramientas generativas. Este enfoque ayuda no solo a preservar el empleo, sino también a garantizar que el uso de la IA se mantenga dentro de los límites de la responsabilidad ética y la transparencia.

El camino hacia la construcción de un sistema de IA verdaderamente confiable también pasa por la creación de nuevas políticas y normativas que regulen tanto el desarrollo como la aplicación de estas tecnologías. Las empresas no solo están construyendo modelos de IA más transparentes, sino también combinando diferentes paradigmas de computación, como la computación neuromórfica o los circuitos específicos de aplicaciones, para crear sistemas más integrados y potentes. Según el artículo ya mencionado de VentureBeat (que recoge predicciones de Gartner para 2025), hay actualmente siete paradigmas de computación que están configurando el futuro de la IA. Sin embargo, la integración de estos modelos complejos plantea la necesidad de una regulación adecuada que garantice que su uso sea seguro y justo.

Finalmente, no se puede subestimar el papel de los usuarios en este proceso. Aunque las empresas están implementando medidas para garantizar la transparencia y la ética en sus sistemas de IA, la aceptación y confianza del público depende en gran medida de cuán educados estén sobre el funcionamiento de estas tecnologías.

Tal como se recoge en una publicación en Quartz, Apple, que históricamente ha adoptado un enfoque más cauteloso en la implementación de IA, ha retrasado la introducción de su plataforma Apple Intelligence en parte porque “se necesita mucho tiempo para lograr que [la tecnología] realmente sea excelente”. Esta postura refleja la importancia de tomarse el tiempo necesario para desarrollar tecnologías que no solo sean innovadoras, sino también confiables desde una perspectiva ética y funcional.

En definitiva, el reto de construir confianza en la inteligencia artificial es una tarea multifacética que implica no solo la creación de herramientas más transparentes y éticas, sino también un esfuerzo significativo en la educación y capacitación tanto de los desarrolladores como de los usuarios. Las empresas que lideran esta transformación, como Microsoft, Salesforce y Apple, están invirtiendo en la creación de sistemas más seguros y explicables. En todo caso, el futuro de la IA dependerá en última instancia de su capacidad para generar confianza en el usuario final.