Hace apenas unos años, la inteligencia artificial (IA) parecía la gran promesa del futuro, especialmente para quienes dedicamos buena parte de nuestra vida a entender cómo aprenden las máquinas. Éramos pioneros, pasando días enteros ajustando modelos, probando algoritmos y afinando detalles técnicos con herramientas especializadas basadas en matemática y programación. Fuimos arquitectos del amanecer tecnológico que hoy ilumina al mundo.
Sin embargo, paradójicamente, los primeros en perder nuestros trabajos a causa de la IA fuimos precisamente nosotros, sus creadores. En la era de ChatGPT, Midjourney y Bard, pareciera que nuestro conocimiento quedó obsoleto: no nos queda más que convertirnos en usuarios pasivos de herramientas cuya creación antes protagonizábamos.
Hoy, la etiqueta de "experto en IA" se vende y se compra en cursos de dos meses en Coursera o Udemy. Incluso la Universidad de Oxford, conocida por su rigor académico, ofrece ahora certificaciones online en IA que duran menos de seis meses. Basta saber formular un buen ‘prompt’ en ChatGPT o DALL-E para autodenominarse experto. Esta banalización del conocimiento especializado diluye décadas de investigación profunda y formación rigurosa en matemáticas, álgebra lineal, heurísticas avanzadas y programación.
Pero el problema real trasciende nuestra frustración profesional. No se trata de egos académicos. La cuestión central es la concentración del poder tecnológico en manos de élites multimillonarias. Construir modelos de IA más poderosos que ChatGPT o Gemini requiere inversiones millonarias en infraestructura computacional y recursos humanos inaccesibles para la gran mayoría. En una reciente columna del MIT Technology Review, Will Douglas Heaven reflexiona sobre este fenómeno. Según Heaven, el auge explosivo de modelos gigantes como GPT-4 —que requieren miles de GPUs, millones de dólares en infraestructura y equipos multidisciplinarios para su desarrollo— está concentrando inevitablemente el poder en manos de una minoría tecnológica: OpenAI, Microsoft, Google y otras grandes corporaciones respaldadas por inversionistas multimillonarios como Elon Musk o Sam Altman.
En su libro "The AI Delusion", Gary Smith argumenta precisamente esto: "El mercado tecnológico actual favorece a grandes corporaciones y elimina de raíz las iniciativas pequeñas y especializadas, creando una dependencia peligrosa en muy pocos actores". Tal como lo señala Smith, hemos creado un mundo donde el desarrollo avanzado de IA es monopolio exclusivo de empresas con presupuestos astronómicos. ¿Quién puede hoy desafiar a ChatGPT o Grok? ¿Cómo puede un ingeniero o investigador promedio competir con infraestructuras como las de Google o Meta?
Antes, las empresas contrataban expertos como nosotros para desarrollar sistemas específicos: visión artificial para seguridad, control de calidad industrial o diagnósticos médicos. Ahora, ¿quién reinventará la rueda si un usuario común, sin formación especializada, puede implementar soluciones predefinidas desde plataformas como Azure Cognitive Services o Google Cloud AI? El espacio para la innovación a menor escala se desvanece ante soluciones prefabricadas, listas para usar.
Este proceso erosiona, además, la supuesta democratización original de la inteligencia artificial. Investigadores y desarrolladores independientes quedan fuera del juego al ser incapaces de competir con gigantes tecnológicos que monopolizan la creación y distribución de IA avanzada. Gigantes como Facebook, OpenAI y Microsoft son ahora prácticamente las únicas alternativas laborales para quienes invertimos una vida entera en el campo de la IA y el machine learning. Pero todos sabemos que estas oportunidades son escasas, difíciles y están reservadas para muy pocos, reduciendo al mínimo nuestras opciones profesionales. Ninguna democratización; por el contrario, todo un monopolio tecnológico.
La situación tampoco mejora en el ámbito académico. Las universidades se ven seducidas por la inmediatez del consumo de aplicaciones de IA. ¿Qué incentivo tendrán los estudiantes para aprender a fondo la matemática profunda del machine learning o el ajuste fino de modelos, cuando el mercado laboral solo pide saber manejar aplicaciones comerciales? Como afirmaba Kai-Fu Lee en su popular libro "AI Superpowers", las universidades deberán enfrentar la dolorosa decisión de simplificar sus programas académicos para adaptarse a una demanda laboral superficialmente preparada, abandonando así la investigación profunda y la innovación verdadera. Es decir, ni en las aulas estaremos a salvo del riesgo de extensión nosotros, los expertos olvidados.
En contraste, profesiones creativas como la escritura se benefician de la IA sin riesgo existencial. Para un escritor, la IA es como un martillo para el carpintero: una extensión natural que amplifica su contundencia y productividad, como señala Yuval Noah Harari en diversas entrevistas. Ellos no desaparecerán, pero nosotros, arquitectos originales de la IA, nos estamos evaporando rápidamente.
El núcleo de este debate debería ser ético y estratégico a nivel global. En un mundo cada vez más interconectado, ¿qué tan conveniente es haber delegado toda la creación y control tecnológico en manos de un puñado de gigantes corporativos? ¿Qué riesgos conlleva para la innovación, la competencia, la ética y hasta para la democracia misma dejar que una élite tecnológica monopolice el desarrollo y evolución de esta herramienta fundamental? La IA no debería ser solo una herramienta para consumir a punta de “prompts”, sino un bien común para desarrollar y mejorar continuamente. El dilema que enfrentamos hoy determinará el futuro tecnológico, económico y social del mañana.
También le puede interesar:
Anuncios.
Anuncios.
