Logo Revista Mercado
[stock_market_widget type="ticker-quotes" template="background" color="blue" assets="AAPL,GOOG,FB,TSLA,PYPL,MSFT,AMZN,INTC,CMCSA" speed="50" direction="left" pause="true" api="yf" style="background: #000100;font-size:13px;padding-bottom: 0;"]
  • Rankings
  • Mercado Women
  • Economía
  • Salud
  • Tecnología
  • Mercado Interview
  • Suscríbete
No Result
View All Result
  • Rankings
  • Mercado Women
  • Economía
  • Salud
  • Tecnología
  • Mercado Interview
  • Suscríbete
Revista Mercado
No Result
View All Result
Home Tecnología

Inteligencia Artificial: Hitos importantes en su evolución histórica

by Paola Ferreras
17 noviembre, 2021
in Tecnología
0
17 noviembre 2021
Hitos importantes de la evolución de la inteligencia artificial

La Inteligencia Artificial (IA) se define como la simulación que realizan determinadas máquinas y sistemas informáticos de los procesos de inteligencia humana. Este concepto incluye desde la automatización de procesos hasta la robótica avanzada. A continuación varios momentos que han definido su desarrollo.

Los números de Alan Turing y las bases de la computación

Se estima que el origen de la inteligencia artificial está relacionado directamente al de la computación. Durante los años 30 y 40 del siglo XX se llegaron a publicar los primeros trabajos que abordaron de alguna manera el principio de la inteligencia artificial, aunque en esa época no existía el término IA. El artículo “Números Calculables”, publicado en 1936 por Alan Turing, establece las bases teóricas de la ciencia de la computación, y formaliza el concepto de algoritmo.

Z3, la primera computadora electrónica digital totalmente funcional

En 1941, el ingeniero alemán Konrad Zuse crea la Z3, que los expertos señalan como la primera computadora electrónica digital totalmente funcional. Zuse es también el creador del primer lenguaje de programación de alto nivel. En 1943, Warren McCulloch y Walter Pitts presentan el Modelo de Neuronas Artificiales, que es considerado como el primer trabajo específico que aborda el campo de la inteligencia artificial en la historia.

La reunión que marcó el nombre y las tendencias de la IA

A mediados de los años 50, se realizó en el Dartmouth College una reunión entre destacados investigadores de esta incipiente área, en la que estuvieron presentes diferentes investigadores como John McCarthy, profesor y famoso matemático, que creó el lenguaje LISP y designó a la nueva ciencia con el nombre de Inteligencia Artificial. A partir de esta importante reunión, comenzaron a distinguirse dos tendencias en el estudio de la inteligencia artificial: el conexionismo y la ingeniería del conocimiento.

Los años 70: entre lenguajes de programación y prototipos

Entre los años 60 y 70 del siglo XX, se observa que en muchas de las técnicas propuestas por los iniciadores de la IA faltaba la consideración del conocimiento heurístico. En 1975 se da un paso muy importante con la aparición de la versión inicial del lenguaje de programación lógica PROLOG. Por esos mismos años se diseñan varios sistemas de diagnóstico de enfermedades e importantes prototipos funcionales, que tuvieron éxito en los campos para los cuales fueron diseñados, atrayendo así la atención de los inversionistas a esta área.

La llegada del concepto de Base de Datos

La llamada etapa de difusión industrial arranca en los años 80, con la salida de los prototipos de los laboratorios y universidades para entrar en el mundo de la producción y el mercado. En este periodo de la IA aparece también el concepto de Base de Datos Inteligentes, que es considerado un concepto renovador que trasciende al simple almacenamiento de información. Entre las bases de datos inteligentes más conocidas están Oracle, DB2,SQL Server y NoSQL, la cual ese concibió para grandes desafíos de administración de datos y aumentar la eficiencia de la organización.

Las aplicaciones robóticas, el blockchain y la nube

La robótica, las redes neuronales, el reconocimiento de patrones, el procesamiento del lenguaje natural y el aprendizaje automático son dominios que empiezan a tener una atención especial durante el desarrollo que ha tenido la IA en las últimas décadas. Se genera así una perspectiva ilimitada sobre este tema. Comienza a definirse entonces un mundo en el que las aplicaciones robóticas, el blockchain y los servicios en la nube empiezan a ganar cada vez más protagonismo.

El debate de la responsabilidad ética

Las perspectivas casi ilimitadas que ha planteado el desarrollo de la inteligencia artificial han terminado por abrir un debate sobre responsabilidad ética. Esto se debe al hecho de que una tecnología de tanta complejidad e impacto como la IA, debe ser manejada bajo sólidos valores humanos. Al respecto, el debate se ha centrado en temas como la prudencia, la fiabilidad y la rendición de cuentas. La responsabilidad humana sobre la IA y la necesaria limitación de autonomía de estos sistemas también se integran a este debate. (rt)

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.


Related Posts

Bill Gates Inteligencia Artificial
Tecnología

La era de la Inteligencia Artificial. Esto opina Bill Gates

22 marzo, 2023
amazon y starlink competiran por el negocio del internet satelital
Tecnología

Bezos vs Musk, duelo en el espacio exterior

15 marzo, 2023
ChatGPT4
Tecnología

GPT-4. Estas son las novedades de la actualización del chat de Inteligencia Artificial

15 marzo, 2023
los usuarios de apple music podran disfrutrar desde el 28 de marzo de la nueva aplicacion de musica clasica
Tecnología

El mayor catálogo de música clásica, en sonido de alta calidad; lo nuevo de Apple

9 marzo, 2023
estas son las tendencias tecnologicas que se extraen del tech trends 2023 de deloitte
Tecnología

«Tech Trends»: Las 6 tendencias tecnológicas para 2023 de Deloitte

7 marzo, 2023
el informe sobre investigacion en tecnologia del futuro refleja el dominio de china sobre estaods unidos en la materia
Tecnología

China vs EE.UU: ¿quién lidera la investigación en tecnología del futuro?

3 marzo, 2023
Load More
Next Post
Balón de fútbol en malla de portería con símbolos de bitcoin y logos de equipos de fútbol

Blockchain pisa las canchas de fútbol con ‘fan tokens’ de fidelidad

Concepto de Elon Musk y chip cerebral Neuralink

Neuralink, ¿por qué el chip cerebral emociona a 'the world's richest man'?

La Tierra se oscurece, vista aérea de la Tierra

La Tierra se oscurece, su sistema climático recibe menos energía

La Inteligencia Artificial (IA) se define como la simulación que realizan determinadas máquinas y sistemas informáticos de los procesos de inteligencia humana. Este concepto incluye desde la automatización de procesos hasta la robótica avanzada. A continuación varios momentos que han definido su desarrollo.

Los números de Alan Turing y las bases de la computación

Se estima que el origen de la inteligencia artificial está relacionado directamente al de la computación. Durante los años 30 y 40 del siglo XX se llegaron a publicar los primeros trabajos que abordaron de alguna manera el principio de la inteligencia artificial, aunque en esa época no existía el término IA. El artículo “Números Calculables”, publicado en 1936 por Alan Turing, establece las bases teóricas de la ciencia de la computación, y formaliza el concepto de algoritmo.

Z3, la primera computadora electrónica digital totalmente funcional

En 1941, el ingeniero alemán Konrad Zuse crea la Z3, que los expertos señalan como la primera computadora electrónica digital totalmente funcional. Zuse es también el creador del primer lenguaje de programación de alto nivel. En 1943, Warren McCulloch y Walter Pitts presentan el Modelo de Neuronas Artificiales, que es considerado como el primer trabajo específico que aborda el campo de la inteligencia artificial en la historia.

La reunión que marcó el nombre y las tendencias de la IA

A mediados de los años 50, se realizó en el Dartmouth College una reunión entre destacados investigadores de esta incipiente área, en la que estuvieron presentes diferentes investigadores como John McCarthy, profesor y famoso matemático, que creó el lenguaje LISP y designó a la nueva ciencia con el nombre de Inteligencia Artificial. A partir de esta importante reunión, comenzaron a distinguirse dos tendencias en el estudio de la inteligencia artificial: el conexionismo y la ingeniería del conocimiento.

Los años 70: entre lenguajes de programación y prototipos

Entre los años 60 y 70 del siglo XX, se observa que en muchas de las técnicas propuestas por los iniciadores de la IA faltaba la consideración del conocimiento heurístico. En 1975 se da un paso muy importante con la aparición de la versión inicial del lenguaje de programación lógica PROLOG. Por esos mismos años se diseñan varios sistemas de diagnóstico de enfermedades e importantes prototipos funcionales, que tuvieron éxito en los campos para los cuales fueron diseñados, atrayendo así la atención de los inversionistas a esta área.

La llegada del concepto de Base de Datos

La llamada etapa de difusión industrial arranca en los años 80, con la salida de los prototipos de los laboratorios y universidades para entrar en el mundo de la producción y el mercado. En este periodo de la IA aparece también el concepto de Base de Datos Inteligentes, que es considerado un concepto renovador que trasciende al simple almacenamiento de información. Entre las bases de datos inteligentes más conocidas están Oracle, DB2,SQL Server y NoSQL, la cual ese concibió para grandes desafíos de administración de datos y aumentar la eficiencia de la organización.

Las aplicaciones robóticas, el blockchain y la nube

La robótica, las redes neuronales, el reconocimiento de patrones, el procesamiento del lenguaje natural y el aprendizaje automático son dominios que empiezan a tener una atención especial durante el desarrollo que ha tenido la IA en las últimas décadas. Se genera así una perspectiva ilimitada sobre este tema. Comienza a definirse entonces un mundo en el que las aplicaciones robóticas, el blockchain y los servicios en la nube empiezan a ganar cada vez más protagonismo.

El debate de la responsabilidad ética

Las perspectivas casi ilimitadas que ha planteado el desarrollo de la inteligencia artificial han terminado por abrir un debate sobre responsabilidad ética. Esto se debe al hecho de que una tecnología de tanta complejidad e impacto como la IA, debe ser manejada bajo sólidos valores humanos. Al respecto, el debate se ha centrado en temas como la prudencia, la fiabilidad y la rendición de cuentas. La responsabilidad humana sobre la IA y la necesaria limitación de autonomía de estos sistemas también se integran a este debate. (rt)

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.

No Result
View All Result
  • Rankings
  • Mercado Women
  • Suscríbete
  • Economía
  • Perfiles
  • Tecnología
  • Mercado Events
  • Newsletters
  • Podcast
  • Videos

© 2020 Revista Mercado.

Ver carrito Finalizar compra Seguir comprando