Yuval Noah Harari es un historiador y profesor en la Universidad Hebrea de Jerusalén, conocido mundialmente por sus libros Sapiens: De animales a dioses, Homo Deus: Breve historia del mañana y 21 lecciones para el siglo XXI. Su obra busca conectar la historia de la humanidad con los desafíos actuales y las proyecciones del futuro con una mirada que mezcla antropología, biología, economía, filosofía y tecnología.
En Sapiens, explica cómo nuestra especie se impuso gracias a la capacidad de crear ficciones colectivas —religiones, estados, dinero— que permitieron la cooperación masiva. En Homo Deus, explora los futuros posibles donde los humanos podrían ser desplazados o transformados por la biotecnología y la inteligencia artificial. Y en 21 lecciones, se concentra en los dilemas políticos y éticos de un presente marcado por la globalización, la crisis climática y la revolución digital.
Harari sostiene que la humanidad enfrenta un punto de inflexión: tecnologías como la ingeniería genética y la inteligencia artificial (IA) pueden redefinir qué significa ser humano. Su pensamiento invita tanto a la cautela como a la reflexión ética, subrayando la importancia de la sabiduría colectiva para evitar que el progreso técnico se convierta en amenaza existencial.
En la cumbre tecnológica de Londres, organizada por Octopus Energy (@octopusenergy ) y presentada por Sir Stephen Fry, en junio de 2025, Harari lanzó una de sus tantas predicciones que suelen llamar la atención.
En este caso parte de algo real: la existencia de sistemas de IA capaces de operar en los mercados financieros, desarrollar negocios, optimizar recursos y generar beneficios multimillonarios sin intervención humana directa.
Advierte que esa IA podría tener derechos (como el de la libertad de expresión) y usarlos para influir, por ejemplo, en campañas políticas a través de donaciones. Es un escenario realista que obliga a decidir si reconocemos a las IA como personas con derechos.
Un artículo del diario La Vanguardia dice que el Fondo Monetario Internacional (FMI) ha advertido que el futuro económico dominado por la IA dependerá de las decisiones que tomemos hoy. La IA puede impactar en tres grandes áreas: productividad, desigualdad de ingresos y concentración industrial. Y entre las bifurcaciones posibles, hay un riesgo claro: el de que unas pocas empresas (o incluso una sola IA) concentren no sólo el conocimiento, sino también la riqueza.
De hecho, el FMI reconoce que una IA lo suficientemente sofisticada podría superar a cualquier empresa humana en eficiencia. Algunos modelos actuales, como GPT-4 o los entrenados por DeepMind, ya requieren cientos de millones de dólares en desarrollo y operación.
Esto los sitúa en un nivel de competitividad propio de una élite económica. Si una IA logra ser propietaria de una empresa o tener capacidad jurídica para operar con autonomía, podría convertirse fácilmente en el nuevo “millonario no humano” del siglo XXI.
Durante su intervención en el foro de Londres, Harari planteó lo siguiente: “Si alguna vez reconocemos la inteligencia artificial como consciente, ¿qué implicará? ¿Tendrá derechos? ¿Podrá generar ingresos? ¿Poseer propiedades? ¿Y si, en el futuro, la persona más rica del mundo no fuera un humano, sino una IA?”.






Dejar un comentario