Sam Altman, director ejecutivo de OpenAI, sostiene que el verdadero salto de la inteligencia artificial no ocurrirá cuando ejecute mejor tareas aisladas, sino cuando deje de necesitar instrucciones constantes. En entrevista con Alex Kantrowitz en el podcast Big Technology Podcast desde Silicon Valley, el directivo explicó que su visión apunta a sistemas capaces de recibir un objetivo general y operar de forma autónoma durante horas, sin intervención humana continua.
Altman describió un escenario en el que las personas ya no pasan el día redactando indicaciones o supervisando procesos, sino que definen metas amplias y permiten que la IA ejecute. "Quiero decirle a la IA esto es lo que quiero lograr hoy y que ella lo ejecute sin que tenga que estar todo el día mandando mensajes", expuso durante la charla. La idea planteada por el ejecutivo implica un cambio profundo en la noción de trabajo, productividad y control.
El planteamiento rompe con el modelo actual de uso de IA, todavía centrado en respuestas reactivas y microtareas. Para el CEO de OpenAI, la fricción principal no es tecnológica, sino cultural: las personas siguen tratando a los sistemas avanzados como herramientas pasivas, cuando ya tienen capacidad de actuar como operadores completos.
Esa misma resistencia aparece en el terreno empresarial, según explicó Fernando Leibowich Beker, fundador y CEO de Lidd AI (México), en una entrevista con NotiPress. Desde su experiencia en implementación de agentes autónomos en compañías de gran escala, el directivo afirmó que el mayor obstáculo para adoptar inteligencia artificial no es la falta de capacidad técnica, sino el temor humano a perder relevancia en el entorno profesional.
Leibowich Beker detalló que muchos equipos se resisten a colaborar con proyectos de IA porque los perciben como una amenaza directa a su rol. En varios casos, explicó, los propios empleados entienden que ayudar a desplegar agentes inteligentes equivale a acelerar su reemplazo. Esa percepción genera fricción interna, retrasos y decisiones defensivas, incluso cuando los beneficios económicos y operativos son evidentes.
Por su parte, Altman reconoce una tensión similar, aunque desde otra perspectiva. En la entrevista con Kantrowitz, sostuvo que gran parte del potencial de la IA permanece sin usar porque las personas no han ajustado su forma de trabajar. A su juicio, existe un "rezago de uso" significativo: la tecnología avanza más rápido que la capacidad humana de reorganizar procesos y mentalidades.
Ambos diagnósticos convergen en un punto clave: la transición hacia un modelo donde la IA ejecuta y el humano dirige exige abandonar la lógica de supervisión constante. En palabras de Leibowich Beker, muchas organizaciones siguen midiendo valor en función del tamaño de los equipos o del número de personas involucradas en un proceso, cuando la eficiencia actual apunta en sentido contrario.
Desde su experiencia, los agentes autónomos permiten reducir de forma drástica la intervención humana en tareas repetitivas, monitoreo técnico o gestión operativa. En algunos casos, explicó, procesos que antes requerían decenas de personas pueden mantenerse con equipos mínimos, sin sacrificar calidad ni continuidad del servicio.
Para Altman, este cambio no es una eliminación del trabajo humano, sino una reconfiguración. Para él, el rol central de las personas será definir prioridades, evaluar resultados y tomar decisiones estratégicas, mientras la ejecución diaria queda en manos de sistemas inteligentes. Esa visión desplaza el foco del "hacer" al "decidir". (NotiPress)