¿Será la Inteligencia Artificial capaz de superar alguna vez a los humanos?

La IA está revolucionando los puestos de trabajo asociados a tecnología y datos.

Reserva la fecha:
7/8/2021
5min
No items found.
Logo de Mbit School
Por
MBIT DATA School

De la mano del concepto de IA la sociedad, la economía, las organizaciones y los individuos están experimentando transformaciones profundas en sus maneras de desenvolverse cuyas posibilidades solo empiezan a atisbarse. Las capacidades, a veces perturbadoras, que demuestra esta nueva tecnología son motivo de esperanza, pero también con frecuencia de temor a que una fuerza más poderosa que nosotros mismos acabe controlando nuestra existencia y hasta haciéndonos prescindibles. Para mantener a raya esos miedos, que en mayor o menor medida han acompañado siempre a las mayores innovaciones tecnológicas, nada mejor que desnudar la esencia de lo que hacen.

La IA desde los años 50

En 1956 , un grupo de investigadores de New Hampshire pusieron ya en marcha un ambicioso, y visionario, proyecto de IA: hacer que los ordenadores pensaran; que manejasen el lenguaje, los conceptos abstractos, que resolviesen problemas reservados a los humanos y que fueran capaz de mejorarse a sí mismos. El proyecto languideció, entre otras razones por la escasa capacidad de los ordenadores de entonces.

Posteriormente, en los años ochenta, los sistemas expertos reavivaron la expectativa de poder crear “máquinas pensantes” que tomasen decisiones en lugar de los humanos. Pero, para la mayoría de objetivos interesantes, requerían un esfuerzo inabarcable de codificación de las incontables situaciones posibles a las que la máquina debería enfrentarse y el gran proyecto de la IA volvió a hibernar.

Hasta que aproximadamente a partir de 2004, una disciplina denominada machine learning (aprendizaje de máquina), que entonces empezaba a competir con los modelos estadísticos de regresión para hacer predicciones (como las de ventas o las de de abandono de clientes) comenzó a tener resultados claramente mejores que estos. ¿La razón? Los ordenadores habían empezado a ser lo bastante potentes para permitir el uso eficiente de cantidades mucho mayores de datos.

Esta evolución de los ordenadores permitió al aprendizaje de máquina empezar a desplegar su potencial, basado en su capacidad de explorar ilimitadas combinaciones entre las variables explicativas. Desde entonces las capacidades de procesamiento y de almacenamiento de los ordenadores se han multiplicado en paralelo a la sofisticación y los éxitos de los nuevos modelos de predicción, cuyo máximo exponente son las llamadas redes neuronales de aprendizaje profundo (deep learning).

¿Un futuro “predecible”?

En pocos años, la nueva tecnología “de predicción” ha alcanzado logros extraordinarios, llegando a niveles de acierto cercanos al 100% en problemas que antes sólo admitían un 80% o menos. Supera así la capacidad humana de “acierto” en ámbitos en los que esta no tenía rival, como la identificación de imágenes o la destreza en juegos tan sofisticados como el ajedrez o el Alpha-Go.

Los nuevos modelos basados en datos se han extendido con éxito a todos los campos de la actividad humana, hasta el punto de que la ambición de las organizaciones más conscientes es estar orientadas por los datos (ser data driven). Las máquinas basadas en esta tecnología producen nuevos medicamentos, mantienen conversaciones, seleccionan, escriben y traducen textos complejos, conducen vehículos, componen música o pintan cuadros.

¿Cómo no considerar que esta nueva tecnología se merece cada una de las letras de la palabra “Inteligencia”, que es la semilla de esa poderosa Inteligencia General imaginada por algunos autores y llamada a desplazar a los humanos?

Cómo funciona en realidad la Inteligencia Artificial

La espectacularidad de los logros no debe ocultar la relativa simplicidad de lo que hay detrás de la IA: un potente sistema de extracción de patrones a partir de una cantidad ingente de datos que permite predecir datos futuros, acertar datos actuales desconocidos o incluso generar “datos” alternativos (pensemos en el deep fake).

Es verdad que la precisión de los “aciertos” es tal que todos los procesos de toma de decisiones de una organización o de un individuo se ven potencialmente transformados de forma radical y a menudo pueden ser automatizados. Pero, a fin de cuentas, todo se basa en una herramienta que intenta extraer la máxima información relevante a partir de un conjunto de datos conocidos para generar “datos” que desconocemos.

¿Podrá algún día las máquinas sustituir al humano?

La desmitificadora idea de que la IA no son más que “máquinas que aciertan mucho” a partir de los datos que se le proporcionan, además de facilitar su comprensión y la de sus capacidades transformadoras, puede también ayudarnos a tener más claros sus límites y de paso su previsible impacto sobre sus creadores, los humanos. Señalaré tres ideas.

1. Dependencia de la IA respecto a los datos que se les suministre

La calidad de las predicciones dependerá de la calidad y abundancia de los datos existentes. Por tanto, el juicio humano va a seguir siendo insustituible en contextos novedosos o con pocos o malos datos, como en el caso de una fusión empresarial o de cualquier fenómeno no habitual, en el que puedan entrar en juego variables nuevas desconocidas por el modelo. El humano sólo será sustituible en contextos relativamente estables y con abundancia de datos de los que extraer pautas.

2. Objetivos de las “máquinas que aciertan”

Qué es relevante acertar y para qué escapa completamente a las capacidades de la propia máquina. Siempre va a necesitar un humano que establezca sus preferencias, determine los objetivos que mejor las satisfagan y supervise que la máquina hace lo que se espera de ella. Es verdad que innumerables objetivos intermedios pueden automatizarse y dejarse en buena medida en las manos de las propias máquinas durante algún tiempo, pero el propósito general y su coherencia con todos los procesos de toma de decisiones deberán estar en permanente definición y supervisión por las personas.

3. Las nuevas tecnologías multiplican las posibilidades de dedicación humana

La tercera idea se refiere al efecto multiplicador sobre la actividad humana que siempre conllevan las innovaciones tecnológicas. Con ellas no se solo se logra hacer mucho mejor lo que ya se hacía antes, sino que se genera una infinidad de nuevos productos y servicios antes impensables (asistentes digitales, toda clase de robots, nuevas formas de marketing…).

Conclusión

En definitiva, la IA significa un avance enorme en las herramientas de extracción de información a partir de los datos y está revolucionando todos los aspectos de la vida humana. Sin embargo, en lo sustancial se trata de un cambio comparable al de otras grandes innovaciones tecnológicas del pasado, que simplemente hicieron más accesible, potente y barata alguna faceta de la actividad humana (transporte, fabricación, comunicación…).

Ninguna de esas innovaciones acabó con el trabajo humano y esta, cuya esencia es mejorar la capacidad de inferencia a partir de datos, tampoco lo hará.

Los trabajos que se vuelvan innecesarios se verán previsiblemente compensados por las nuevas posibilidades generadas por la inteligencia humana apoyada en la artificial más los empleos generados por las funciones de diseño, mantenimiento y supervisión asociadas a la nueva tecnología.

En conjunto, se tratará de trabajos más cualificados, lo que en sí mismo puede considerarse positivo. La principal preocupación, por tanto, no deberá ser si va a desaparecer el trabajo humano, sino cómo facilitar la transición de los trabajadores cuyos empleos desaparezcan a los nuevos.

No items found.
¡Estupendo! Tu solicitud ya se está procesando. Pronto tendrás noticias.
Oops! Ha ocurrido algún tipo de error.
Últimas Publicaciones

De la mano del concepto de IA la sociedad, la economía, las organizaciones y los individuos están experimentando transformaciones profundas en sus maneras de desenvolverse cuyas posibilidades solo empiezan a atisbarse. Las capacidades, a veces perturbadoras, que demuestra esta nueva tecnología son motivo de esperanza, pero también con frecuencia de temor a que una fuerza más poderosa que nosotros mismos acabe controlando nuestra existencia y hasta haciéndonos prescindibles. Para mantener a raya esos miedos, que en mayor o menor medida han acompañado siempre a las mayores innovaciones tecnológicas, nada mejor que desnudar la esencia de lo que hacen.

La IA desde los años 50

En 1956 , un grupo de investigadores de New Hampshire pusieron ya en marcha un ambicioso, y visionario, proyecto de IA: hacer que los ordenadores pensaran; que manejasen el lenguaje, los conceptos abstractos, que resolviesen problemas reservados a los humanos y que fueran capaz de mejorarse a sí mismos. El proyecto languideció, entre otras razones por la escasa capacidad de los ordenadores de entonces.

Posteriormente, en los años ochenta, los sistemas expertos reavivaron la expectativa de poder crear “máquinas pensantes” que tomasen decisiones en lugar de los humanos. Pero, para la mayoría de objetivos interesantes, requerían un esfuerzo inabarcable de codificación de las incontables situaciones posibles a las que la máquina debería enfrentarse y el gran proyecto de la IA volvió a hibernar.

Hasta que aproximadamente a partir de 2004, una disciplina denominada machine learning (aprendizaje de máquina), que entonces empezaba a competir con los modelos estadísticos de regresión para hacer predicciones (como las de ventas o las de de abandono de clientes) comenzó a tener resultados claramente mejores que estos. ¿La razón? Los ordenadores habían empezado a ser lo bastante potentes para permitir el uso eficiente de cantidades mucho mayores de datos.

Esta evolución de los ordenadores permitió al aprendizaje de máquina empezar a desplegar su potencial, basado en su capacidad de explorar ilimitadas combinaciones entre las variables explicativas. Desde entonces las capacidades de procesamiento y de almacenamiento de los ordenadores se han multiplicado en paralelo a la sofisticación y los éxitos de los nuevos modelos de predicción, cuyo máximo exponente son las llamadas redes neuronales de aprendizaje profundo (deep learning).

¿Un futuro “predecible”?

En pocos años, la nueva tecnología “de predicción” ha alcanzado logros extraordinarios, llegando a niveles de acierto cercanos al 100% en problemas que antes sólo admitían un 80% o menos. Supera así la capacidad humana de “acierto” en ámbitos en los que esta no tenía rival, como la identificación de imágenes o la destreza en juegos tan sofisticados como el ajedrez o el Alpha-Go.

Los nuevos modelos basados en datos se han extendido con éxito a todos los campos de la actividad humana, hasta el punto de que la ambición de las organizaciones más conscientes es estar orientadas por los datos (ser data driven). Las máquinas basadas en esta tecnología producen nuevos medicamentos, mantienen conversaciones, seleccionan, escriben y traducen textos complejos, conducen vehículos, componen música o pintan cuadros.

¿Cómo no considerar que esta nueva tecnología se merece cada una de las letras de la palabra “Inteligencia”, que es la semilla de esa poderosa Inteligencia General imaginada por algunos autores y llamada a desplazar a los humanos?

Cómo funciona en realidad la Inteligencia Artificial

La espectacularidad de los logros no debe ocultar la relativa simplicidad de lo que hay detrás de la IA: un potente sistema de extracción de patrones a partir de una cantidad ingente de datos que permite predecir datos futuros, acertar datos actuales desconocidos o incluso generar “datos” alternativos (pensemos en el deep fake).

Es verdad que la precisión de los “aciertos” es tal que todos los procesos de toma de decisiones de una organización o de un individuo se ven potencialmente transformados de forma radical y a menudo pueden ser automatizados. Pero, a fin de cuentas, todo se basa en una herramienta que intenta extraer la máxima información relevante a partir de un conjunto de datos conocidos para generar “datos” que desconocemos.

¿Podrá algún día las máquinas sustituir al humano?

La desmitificadora idea de que la IA no son más que “máquinas que aciertan mucho” a partir de los datos que se le proporcionan, además de facilitar su comprensión y la de sus capacidades transformadoras, puede también ayudarnos a tener más claros sus límites y de paso su previsible impacto sobre sus creadores, los humanos. Señalaré tres ideas.

1. Dependencia de la IA respecto a los datos que se les suministre

La calidad de las predicciones dependerá de la calidad y abundancia de los datos existentes. Por tanto, el juicio humano va a seguir siendo insustituible en contextos novedosos o con pocos o malos datos, como en el caso de una fusión empresarial o de cualquier fenómeno no habitual, en el que puedan entrar en juego variables nuevas desconocidas por el modelo. El humano sólo será sustituible en contextos relativamente estables y con abundancia de datos de los que extraer pautas.

2. Objetivos de las “máquinas que aciertan”

Qué es relevante acertar y para qué escapa completamente a las capacidades de la propia máquina. Siempre va a necesitar un humano que establezca sus preferencias, determine los objetivos que mejor las satisfagan y supervise que la máquina hace lo que se espera de ella. Es verdad que innumerables objetivos intermedios pueden automatizarse y dejarse en buena medida en las manos de las propias máquinas durante algún tiempo, pero el propósito general y su coherencia con todos los procesos de toma de decisiones deberán estar en permanente definición y supervisión por las personas.

3. Las nuevas tecnologías multiplican las posibilidades de dedicación humana

La tercera idea se refiere al efecto multiplicador sobre la actividad humana que siempre conllevan las innovaciones tecnológicas. Con ellas no se solo se logra hacer mucho mejor lo que ya se hacía antes, sino que se genera una infinidad de nuevos productos y servicios antes impensables (asistentes digitales, toda clase de robots, nuevas formas de marketing…).

Conclusión

En definitiva, la IA significa un avance enorme en las herramientas de extracción de información a partir de los datos y está revolucionando todos los aspectos de la vida humana. Sin embargo, en lo sustancial se trata de un cambio comparable al de otras grandes innovaciones tecnológicas del pasado, que simplemente hicieron más accesible, potente y barata alguna faceta de la actividad humana (transporte, fabricación, comunicación…).

Ninguna de esas innovaciones acabó con el trabajo humano y esta, cuya esencia es mejorar la capacidad de inferencia a partir de datos, tampoco lo hará.

Los trabajos que se vuelvan innecesarios se verán previsiblemente compensados por las nuevas posibilidades generadas por la inteligencia humana apoyada en la artificial más los empleos generados por las funciones de diseño, mantenimiento y supervisión asociadas a la nueva tecnología.

En conjunto, se tratará de trabajos más cualificados, lo que en sí mismo puede considerarse positivo. La principal preocupación, por tanto, no deberá ser si va a desaparecer el trabajo humano, sino cómo facilitar la transición de los trabajadores cuyos empleos desaparezcan a los nuevos.

Regístrate
Icono de Google Maps
¡Estupendo! Tu solicitud ya se está procesando. Pronto tendrás noticias.
Oops! Ha ocurrido algún tipo de error.
Colabora en el evento

Itinerarios formativos relacionados

¿Te ha interesado? Profundiza mucho más y dale un giro a tu carrera. Profesionales del sector y una comunidad increíble te están esperando.

Máster
Máster
Máster
Máster en Inteligencia Artificial Avanzada y Generativa
Créditos ECTS:
60
Duración:
60
 horas
Convocatorias:
Marzo 2024
Modalidad:

Presencial/Online

Horas semanales:

  • 2 horas vídeos de alta calidad
  • 8 horas talleres presenciales
  • 1 hora de tutoría
  • 3 horas de material y trabajo autónomo
Máster
Máster
Máster
Máster en Data Science y Machine Learning para la Toma de Decisiones
Créditos ECTS:
60
Duración:
60
 horas
Convocatorias:
Marzo 2024
Modalidad:

Presencial/Online

Horas semanales:

  • 2 horas vídeos de alta calidad
  • 8 horas talleres presenciales
  • 1 hora de tutoría
  • 3 horas de material y trabajo autónomo
Programa Experto
Programa Experto
Programa Experto
Programa Experto en People Analytics y Digitalización de RRHH
Créditos ECTS:
150
Duración:
150
 horas
Convocatorias:
Marzo 2024
Modalidad:

Presencial/Online

Horas semanales:

  • 2 horas vídeos de alta calidad
  • 8 horas talleres presenciales
  • 3 horas de material y trabajo autónomo