Y las herramientas prometen eficiencia en el trabajo, pero pueden colapsar la confianza, la creatividad y la agencia.

Periodista ANASTACIO ALEGRIA
3 Lectura mínima

¿Qué pasa si el mayor fondo competitivo no es la rapidez y la ayuda a trabajar, sino lo bien que se pregunta qué produce?

Los líderes empresariales tienden a priorizar la eficiencia y la conformidad en el lugar de trabajo. Esta es una de las razones por las que se sienten tan atraídos por la participación de tecnologías de IA generativa en sus flujos de trabajo. Investigaciones recientes han encontrado que el 63 por ciento de los líderes mundiales de TI se preocupan de que sus empresas permanezcan sin la adopción de la IA.

Pero en la prisa por adoptar la IA, algunas organizaciones pasan por alto la influencia real que puede tener sobre los trabajadores y la cultura de las empresas.

La mayoría de las estrategias organizacionales se centran en la eficiencia de la IA a corto plazo, como la automatización, la velocidad y el ahorro de costos. Lo que se puede ignorar son las influencias de la IA en la realización, la agencia y las normas culturales. Básicamente, la IA está reestructurando no sólo lo que sabemos, sino también cómo lo sabemos.

A medida que la IA se integre, seguirá afectando el tono, el ritmo, el estilo de comunicación y la toma de decisiones de la organización. Por lo tanto, los líderes deben establecer límites de intención y dar forma consciente a la cultura organizacional en relación con la integración.

Una vez instalado en los flujos de trabajo, afecta los valores predeterminados en el lugar de trabajo: qué aparece por primera vez, qué tono debe almacenarse y dónde los gerentes establecen al menos “suficientemente bueno”. Si la gente no coloca estos valores predeterminados, lo harán herramientas como la IA.

Como investigadores que estudiamos la IA, la psicología, la interacción y la ética de las computadoras humanas, estamos profundamente preocupados por los efectos y consecuencias ocultos del uso de la IA.

Efectos psicológicos de la IA en el trabajo

Los investigadores comienzan a documentar una serie de efectos psicológicos asociados con el uso en el lugar de trabajo. Estas influencias muestran las lagunas actuales de la conciencia epistémica (cómo sabemos lo que sabemos) y cómo estas lagunas pueden debilitar estos límites emocionales.

Estos cambios pueden influir en la forma en que las personas toman decisiones, calibran la confianza y mantienen la seguridad psicológica en el entorno y en la mediación.

Los investigadores comienzan a documentar una serie de efectos psicológicos asociados con el uso en el lugar de trabajo. (BoliviaInteligente / Unsplash +)

Uno de los efectos más destacados se conoce como “sesgo de automatización”. Una vez integrados en el flujo de trabajo de la empresa, sus productos a menudo se internalizan como fuentes autorizadas de verdad.

Dado que los resultados generados por la IA son fluidos y objetivos, pueden aceptarse acríticamente, creando un sentimiento inflado de confianza y una peligrosa ilusión de competencias.

Un estudio reciente reveló que en el 40 por ciento de las tareas, los trabajadores del conocimiento (aquellos que convierten la información en decisiones o entregas, como escritores, analistas y diseñadores) aceptaron la IA acríticamente y sin vigilancia.

A LIRE AUSSI: La IA preforma el lugar de trabajo, pero ¿qué significa para la salud y el bienestar de los trabajadores?

Erosión de la confianza en uno mismo

Otra preocupación es la erosión de la confianza en uno mismo. El compromiso continuo con el contenido generado por IA lleva a los trabajadores a cuestionar sus instintos y hacer la transición a las pautas de IA, a menudo sin notificarles. Con el tiempo, el trabajo pasa de generar ideas a aprobar únicamente las generadas por IA. Esto da como resultado una reducción del juicio personal, la creatividad y la autoría original.

Un estudio encontró que los usuarios tienden a seguir y dar consejos incluso cuando se oponen a su propio juicio, lo que resulta en una disminución de la confianza y de la decisión autónoma. Una segunda investigación muestra que cuando los sistemas proporcionan comentarios de confirmación, incluso para respuestas incorrectas, los usuarios se vuelven más seguros en sus decisiones, lo que puede distorsionar su veredicto.

Los trabajadores eventualmente pueden disponer de la IA como una autoridad a pesar de la falta de experiencia de vida, razonamiento moral o comprensión contextual. La productividad puede surgir en poco tiempo, pero la calidad de las decisiones, la confianza en uno mismo y la vigilancia ética pueden eventualmente verse afectadas.

La pantalla de la computadora que muestra el software Chatgpt.

El compromiso continuo con el contenido generado por la IA puede llevar a los trabajadores al segundo golpe de sus instintos y a confiar excesivamente en las instrucciones de la IA, a menudo sin lograrlo. (Emiliano Vittoriosi / Unsplash +)

Las pruebas que están surgiendo también indican los efectos neurológicos de las competencias derivadas del uso de la IA. Una formación reciente en emergentes, que acompañó a profesionales del cerebro durante cuatro meses, descubrió que los usuarios de Chatggpt exhibían un 55 por ciento menos de conexión neuronal en comparación con aquellos que trabajaban sin ayuda. Les costó recordar los ensayos que luego solo escribieron por momentos, además de un compromiso creativo reducido.

Entonces, ¿qué pueden hacer los líderes y gerentes al respecto?

¿Qué pueden hacer los líderes y gerentes?

La resiliencia se ha convertido en parte del tema de conversación empresarial, pero la verdadera resiliencia puede ayudar a las organizaciones a adaptarse a la IA.

Las organizaciones elásticas aprenden a los empleados a cooperar eficazmente con la IA sin depender excesivamente de sus resultados. Esto requiere una formación sistemática en interpretación y habilidades críticas para construir una cooperación humana equilibrada y ética.

Las organizaciones que valoran las críticas por su aceptación pasiva serán mejores para pensar críticamente, adaptar eficazmente el conocimiento y desarrollar una capacidad ética más sólida. Una forma de lograrlo es pasando de las formas de pensamiento orientadas a las adaptativas. Lo que, prácticamente, significa que los trabajos deben buscar hacer lo siguiente:

Capacite a las personas para que separen lo fluido de lo preciso y se pregunten de dónde viene la información, pero solo para que sean consumidores pasivos. Con una mejor conciencia de episcammy, los trabajadores se convierten en traductores activos y entienden qué y la herramienta habla, así como cómo y por qué dice eso.

Aprenda a las personas a seguir sus pensamientos e inscribir fuentes de conocimiento. Un estudio reciente mostró que los profesionales con sólidas prácticas metacognitivas, como la planificación, la confianza en sí mismos y la auditoría rápida, lograron una creatividad significativamente mayor al utilizar herramientas de inteligencia artificial, mientras que otros no vieron ningún beneficio. Esto significa que a la metacogganición podría “faltarle una conexión” para producir un uso productivo de LLM.

Evite el acceso en un solo tamaño y considere los niveles de automatización por fases de la tarea. Se debe alentar a los desarrolladores de herramientas de inteligencia artificial a definir roles claros cuando un modelo de borrador o análisis, cuando el líder humano y cuando la verificación es obligatoria. Considere agregar cosas como IA para responsabilidades y responsabilidades.

Crear culturas en el lugar de trabajo que alienten a los trabajadores a examinar y salir, seguir esos desafíos, así como señales de calidad y verificación del presupuesto. Los puestos deben publicar estándares de estilo para el asistente de IA en la redacción, establecer los umbrales de confianza y las exigencias de evidencia para la función y determinar quién firma en cualquier nivel de riesgo.

Realice “revisiones de deriva” trimestrales para notar cambios de tono, confianza o sesgo, antes de calcificar la cultura organizacional.

La eficiencia no decidirá a los ganadores

Como empezamos a ver, la planta de eficiencia no decidirá qué empresas tienen más éxito; La capacidad de interpretar y valorar críticamente y salir lo hará.

Las empresas que aceleran el escepticismo y protegen el veredicto como una herramienta de primera clase lidiarán con la volatilidad que aquellas que tratan la IA como un piloto automático. La velocidad puede llevarlo a la siguiente decisión, pero el veredicto lo mantiene en el negocio.

El Servicio de Inteligencia Ética en las organizaciones requiere inversión actual en conciencia epistémica, habilidad interpretativa, seguridad psicológica y diseño activo de valor conducido.

Las empresas capaces de equilibrar las innovaciones tecnológicas con un pensamiento crítico y una profunda comprensión ética serán las que triunfarán en la era de la IA.


Descubre más desde USA Today

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Comparte este artículo
Deja un comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish

Descubre más desde USA Today

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo