¿Puede la inteligencia artificial caer en la estupidez artificial?

Por [email protected] | octubre 26, 2022

Hay quien augura que la inteligencia artificial (IA) será capaz de traducir idiomas o de escribir mejor que los humanos. También de pintar o de crear complejas composiciones musicales. Algunos defienden que las máquinas conducirán o realizarán operaciones quirúrgicas de altísimo riesgo mejor que las personas más cualificadas. Pero, mirándolo desde la perspectiva opuesta, existe una pregunta que, aunque pueda sonar paradójica, resulta muy pertinente: ¿está la inteligencia artificial libre de caer en los mismos errores que los humanos, incluso en la estupidez artificial? La respuesta es no. En los últimos años, se han registrado errores que así lo prueban.

Capaces de aprender y de pensar, de desarrollar cualidades humanas como la intuición o la creatividad, las máquinas aprendieron hace casi setenta años a diferenciar entre izquierda y derecha. Desde entonces se han impuesto a campeones mundiales del ajedrez o del póker. También reconocen rasgos faciales o la voz, traducen de forma simultánea, conducen de manera autónoma y perfeccionan el diagnóstico médico.

La inteligencia artificial será uno de los mejores aliados para afrontar los principales desafíos de la humanidad. No obstante, millones de personas, de forma consciente o inconsciente, la utilizan ya de forma cotidiana (navegación, geolocalización, computación o asistentes virtuales).

¿Máquinas desobedientes?

Robótica, redes neuronales, algoritmos, bases de datos inteligentes. Sus utilidades son ilimitadas y alrededor de ellas, irrumpe el debate sobre la ética de esta tecnología. La discusión gira en torno al riesgo de que estos avances acrecienten brechas  (geográficas o generacionales) y de que las máquinas puedan llegar a ser completamente autónomas, desobedeciendo o incumpliendo incluso las funciones para las que fueron diseñadas.

Te puede interesar: Los 10 mejores CEOs en AL elegidos por ¿Inteligencia Artificial? Aquí el listado

El presidente del laboratorio de ideas We The Humans, Juan Ignacio Rouyet, apunta que algo tan aparentemente inofensivo como un navegador puede escudriñar datos sobre la personalidad de un individuo. Por ejemplo, si acude más a librerías o a bares. Esto afecta de una forma directa a la libertad y a la intimidad de la persona. En el mismo sentido, el investigador Pedro Meseguer recuerda que el anonimato se está perdiendo, pero incidió en que los «temores» hacia esta tecnología se pueden neutralizar con una legislación clara que determine un tratamiento concreto de los datos personales.

Rouyet mantiene que se trata de una tecnología «muy poderosa» porque identifica patrones y porque aprende, por lo que sus usos son ilimitados «e insospechados». Por ejemplo, la IA ha sido capaz de pintar «El próximo Rembrandt», un retrato «al estilo» del pintor neerlandés, cuando aprendió a reconocer sus patrones de pintura. «Pero la IA no fue creativa, pintó lo que le dijeron«, matiza.

Por otro lado, apunta que las brechas y las desigualdades que provocan las nuevas tecnologías van a ser cada vez mayores. Así, se pregunta si el dueño y director de Meta, Mark Zuckerberg, está pensando implantar el «metaverso» en Sierra Leona, o si el robot humanoide diseñado por Tesla -cuyo coste rondará los US$20 mil- está pensado también para el mercado etíope o si estará al alcance de cualquiera.

El riesgo de delegar en las máquinas

Para el presidente de We The Humans existe, además, un riesgo añadido: que la IA acabe modificando la conducta humana cuando la persona delega en esa tecnología su autonomía o la toma de decisiones. «Podemos dejar que un coche conduzca, pero también que un sistema decida a quién contratar o a quién condenar. Eso es delegar nuestra autonomía, pero no en la inteligencia artificial, sino en manos de quien la ha diseñado«, manifiesta Rouyet. Así, asegura que durante los últimos años ya se han registrado ejemplos claros de resultados incorrectos y de «estupidez artificial».

En la inteligencia artificial «el alimento» son los datos. Si esos datos llevan algún tipo de sesgo, el resultado final estará también viciado. «Si en un sistema de valoración de puestos de trabajo, los datos de entrada tienen perfiles de hombres con sueldos más altos que las mujeres, el sistema recomendará sueldos más altos para los hombres», mantiene. La manera de evitarlo es clara: no permitir que la IA tome decisiones. Debe proponer opciones, «pero la decisión final debe depender siempre de un ser humano«.

Pedro Meseguer incide en la importancia de incluir valores éticos en el desarrollo de esta tecnología para evitar que tenga sesgos entre etnias o sexos. Se muestra convencido de que estos avances cambiarán el comportamiento de los humanos, como lo han modificado antes otras tecnologías (autos, teléfonos…). Advierte, eso sí, que la posibilidad de error va a estar siempre presente porque. Al igual que los humanos, «la IA no es infalible».

Información de la agencia EFE.

¿La IA tiene sentimientos? Google suspende a un ingeniero por publicarlo

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.