Con la llegada masiva de la inteligencia artificial a nuestra vida cotidiana, y con el rápido desarrollo de soluciones que funcionan como agentes autónomos capaces de operar con una sorprendente autonomía, se vuelve urgente una pregunta: ¿cuál es el papel que jugará el ser humano en este nuevo escenario?
Proyecciones económicas: del entusiasmo a la cautela
Un reciente artículo de MIT Sloan explora el potencial impacto de la IA en la economía mundial. Algunas proyecciones hablan de un efecto sobre el 40% de los empleos, y estiman aumentos de hasta un 7% en el PIB global. Sin embargo, otras visiones, como la del economista Daron Acemoglu (Premio Nobel 2024), invitan a la cautela: solo el 5% de las tareas podría ser automatizada de forma rentable en los próximos 10 años. El efecto económico sería entonces “modesto pero no trivial”. Todos coinciden, eso sí, en que el impacto será significativo, aunque aún no sabemos exactamente dónde ni cómo se sentirá con mayor fuerza.
Humanos como fugu: una provocación desde Choudary
Hace algunos días, leí una columna del estratega digital Sangeet Paul Choudary que me dejó pensando. En ella, plantea una provocación que parece sacada de una novela distópica, pero que resuena con fuerza en el presente: ¿qué significa ser humano en un mundo donde la inteligencia artificial aprende más rápido, comete menos errores y nunca necesita descansar?
Para continuar con su provocación, Choudary utiliza una metáfora brillante y perturbadora. Los humanos, dice, somos como el fugu (el pez globo japonés): un manjar exótico, valioso, pero potencialmente peligroso si no se “prepara” con extremo cuidado. En otras palabras, nuestra presencia en el entorno laboral se está volviendo impredecible y costosa.
Esta reflexión se conecta directamente con una entrada anterior de este blog, donde analizamos el surgimiento de los agentes autónomos como “software que trabaja”. Si esos agentes ya pueden asumir tareas complejas, tomar decisiones en tiempo real y adaptarse a nuevos entornos, ¿cuál es entonces el lugar que queda para los humanos?
¿Estamos condenados a convertirnos en ornamentales?
En el escenario descrito por Choudary, las personas son cada vez menos requeridas para el trabajo “productivo”. En su lugar, surgen “puestos de humanidad”: roles diseñados para transmitir cercanía, empatía o simplemente legitimidad humana en entornos automatizados. Personas que están ahí no porque aporten valor técnico, sino porque “parecen humanas” frente a otras máquinas o clientes.
Más aún, comienzan a surgir “consultoras de autenticidad humana” —entrenadores especializados en ayudar a las máquinas a parecer menos artificiales, más espontáneas, más emocionales.
¿Suena absurdo? En realidad, podemos ver algunas manifestaciones de esto: asistentes virtuales que moderan entrevistas, algoritmos que evalúan nuestro tono de voz o expresiones faciales en procesos de selección, chatbots que simulan empatía mejor que algunos humanos. La frontera entre lo auténtico y lo artificial se va desdibujando y con ello, también nuestra identidad como personas.
Humanos vs. algoritmos: centauros, cyborgs e inteligencia aumentada
Este no es un debate nuevo. La historia del trabajo está llena de tensiones entre tecnología y humanidad. Pero la diferencia ahora es la velocidad del cambio y la profundidad de su impacto. No se trata solo de reemplazo de funciones; se trata de transformación del rol humano en la sociedad. Frente a esto, emergen dos grandes modelos de colaboración humano-IA: el del centauro y el del cyborg.
Centauros: representan una colaboración complementaria. El humano decide estrategias, define preguntas; la IA analiza datos, propone soluciones. Cada uno hace lo que mejor sabe hacer.
Cyborgs: implican una integración profunda, donde humano e IA trabajan de forma entrelazada, compartiendo tareas a nivel de subtarea. Es una extensión cognitiva en tiempo real.
Estos modelos ayudan a navegar lo que algunos llaman la “frontera irregular” de la IA, donde algunas tareas son fácilmente automatizables, pero muchas otras requieren intuición, contexto o juicio humano.
A estos modelos se suma el concepto de inteligencia aumentada, que pone el foco en potenciar, no reemplazar. La IA automatiza lo repetitivo; el humano agrega criterio, empatía y creatividad. Esta lógica también está presente en diseños donde el humano sigue “en el ciclo” (human in the loop), validando o ajustando las decisiones de los sistemas.
Aspecto | Inteligencia Artificial | Inteligencia Aumentada |
---|---|---|
Grado de autonomía | Alta, sin intervención humana | Asistencia con supervisión humana |
Procesamiento | Totalmente automático | Con revisión/adaptación humana |
Toma de decisiones | Basada en datos | Datos + criterio humano |
Objetivo principal | Sustituir funciones humanas | Potenciar habilidades humanas |
Velocidad de ejecución | Muy rápida | Moderada por intervención |
Las oportunidades, retos y dilemas de la colaboración humano-IA
En el libro “SuperShifts” se amplía este debate al hablar de IntelliFusion: una nueva era de sistemas híbridos que integran de forma fluida IA con inteligencia humana. Esto podría abrir puertas a mejoras cognitivas, personalización del aprendizaje, nuevas formas de tomar decisiones y una relación más eficaz con el conocimiento.
Pero también hay riesgos: dependencia excesiva, pérdida de habilidades, presión constante por “estar al día”, dilemas sobre privacidad y autonomía.
En el plano organizacional, IntelliFusion exige rediseñar estructuras, roles, e invertir en habilidades de colaboración con la IA. En el plano social, desafía nociones de identidad, educación, salud y gobernanza.
Mientras tanto, Acemoglu recuerda que muchos de los beneficios prometidos seguirán siendo esquivos si la IA se aplica a los problemas equivocados o se concentra solo en grandes empresas. Propone una reorientación hacia herramientas que aumenten la productividad real de las personas, no que solo simulen conversaciones humanas.
Elegir desde la conciencia
No se trata de romantizar lo humano ni de demonizar la tecnología. Se trata de reconocer que la tecnología no es neutral: está modelada por valores, objetivos y decisiones humanas. Por lo tanto, también podemos (y debemos) decidir cómo nos relacionamos con ella.
¿Queremos delegar nuestras decisiones a una red neuronal? ¿O queremos construir un futuro en el que lo humano siga en el centro, precisamente porque se desafía, evoluciona y colabora con lo artificial?
La inteligencia artificial no es el problema. El verdadero desafío es cómo reconfiguramos nuestras organizaciones, nuestros entornos de trabajo y nuestras propias expectativas frente a este nuevo paradigma. Y eso requiere reflexión, criterio y, sobre todo, humanidad.
Al final, la tecnología no define quiénes somos. La forma en que decidimos usarla, sí.
*Escrito en colaboración con asistentes IA de Openai.