La inteligencia artificial se expande en oficinas, bancos, estudios creativos y hasta en escritorios hogareños. Lo curioso es que lo hace de manera casi clandestina. En Argentina, encuestas recientes muestran que la gran mayoría de los trabajadores ya recurre a estas herramientas en alguna medida, pero pocas veces lo admite en voz alta. En lugar de celebrarse como un signo de modernización, el uso de IA todavía despierta pudor.
Ese sentimiento tiene raíces culturales profundas. En un contexto donde el mérito se mide todavía en horas de esfuerzo y destreza individual, apoyarse en un algoritmo puede sonar a trampa. Investigaciones internacionales, como el Slack Workforce Index, señalan que hasta la mitad de los trabajadores temen ser percibidos como perezosos o menos capaces si confiesan que usaron IA para completar sus tareas. En América Latina, el fenómeno se repite: un estudio regional de Thomson Reuters reveló que el 85 % de los profesionales quiere integrar la IA a su trabajo, pero apenas el 18 % de las organizaciones cuenta con políticas claras y la mayoría carece de capacitación formal. El entusiasmo existe, pero convive con la incertidumbre y, muchas veces, con el silencio.
Las cifras argentinas son elocuentes. Un relevamiento de IDEA detectó que nueve de cada diez empleados ya incorporan la IA en su trabajo cotidiano, aunque las empresas no siempre promueven esa práctica ni ofrecen guías de uso. Otro estudio de Randstad revela que solo el 13% reconoce usarla regularmente, a pesar de que un tercio de los encuestados admite que la tecnología impacta fuertemente en su jornada. La contradicción es evidente: se la usa más de lo que se admite.
El problema no está en la tecnología, sino en el clima cultural. Cuando una organización no define qué está permitido ni cómo se deben acreditar los aportes de la IA, se crea un terreno fértil para la inseguridad. Esa indefinición empuja a los empleados a lo que los expertos llaman shadow AI: el uso silencioso, sin lineamientos ni supervisión, que expone a errores y erosiona la confianza interna.
Como advierte Julián Colombo, CEO de N5, “la resistencia cultural pesa más que la curva de aprendizaje. La inteligencia artificial no genera tanto miedo por lo que hace, sino por lo que creemos que dice de nosotros cuando la usamos”.
Ejemplos concretos muestran que, bien diseñada, la IA no debería generar vergüenza sino orgullo. Herramientas como Alfred y Pep, los copilotos de N5, fueron creadas justamente para potenciar la productividad y el aprendizaje en la industria financiera. Su propósito no es reemplazar, sino asistir: Alfred funciona como un consejero inteligente que ayuda a tomar decisiones más rápidas y fundamentadas, mientras que Pep actúa como un compañero didáctico que simplifica la capacitación y democratiza el acceso al conocimiento. Admitir que se los utiliza no resta mérito: al contrario, habla de un profesional que sabe aprovechar las mejores tecnologías disponibles para concentrarse en lo que realmente importa.
Los riesgos de mantener la adopción en las sombras son claros: se pierden oportunidades de capacitación colectiva, se debilita la calidad de los procesos y se alimenta un clima de sospecha. La salida pasa por naturalizar el uso y acompañarlo de reglas sencillas: definir qué tareas pueden apoyarse en IA, aclarar cómo deben presentarse los resultados y garantizar que siempre exista una revisión humana antes de dar un trabajo por concluido.
En última instancia, el pudor frente a la IA es un espejo de nuestras creencias sobre el valor del trabajo. Más que una revolución técnica, lo que tenemos por delante es una transición cultural. Si logramos atravesarla con transparencia dejaremos de sentir vergüenza al usar estas herramientas y podremos transformarlas en un verdadero capital compartido.