[stock_market_widget type="ticker-quotes" template="background" color="blue" assets="AAPL,GOOG,FB,TSLA,PYPL,MSFT,AMZN,INTC,CMCSA" speed="50" direction="left" pause="true" api="yf" style="background: #000100;font-size:13px;padding-bottom: 0;"]
Business

Google’s AI Chatbot: una nueva sombra de discriminación

2 agosto 2022

Filtrar información confidencial es un delito, sin embargo, el mundo no condena a aquellos ejecutivos que lo hacen en pro del bienestar común. Esta semana de nuevo suena el nombre de Google, luego de que se revelara los sesgos con el que fue creado su chatbot, comprometiendo la ética del Google’s AI Chatbot.

Blake Lemoine, exingeniero de Google, conmovió al mundo de la tecnología en las últimas semanas por filtrar esta información. El Bot, conocido como LaMDA (Language Model for Dialog Applications), tiene puntos de vista discriminatorios contra los de algunas razas y religiones, por no decir que también de género.

Fotografía: Walter Bridge

«El tipo de problemas que plantean este tipo de IA, las personas que las construyen no los ven», dijo Blake Lemoine, y culpó del problema a la falta de diversidad en los ingenieros que trabajan en el proyecto. «Nunca han sido pobres. Nunca han vivido en comunidades de color. Nunca han vivido en las naciones en desarrollo del mundo. No tienen idea de cómo esta IA podría afectar a personas diferentes a ellos».

Los medios nos forman

Más allá de generar respuestas ocurrentes, el verdadero motivo de preocupación es darle a la población herramientas defectuosas que vengan plagadas con sesgos de inteligencia artificial de orden racial, religioso o de género.

Fotografía: The Standard CIO

Aún así, el ingeniero reconoce que se trata de la innovación técnica más poderosa de la compañía hasta la fecha. Mientras tanto, el gigante de la tecnología actuaría de forma poco ética si le dan difusión a este producto defectuoso.

«Son simplemente ingenieros que construyen sistemas mejores y más grandes para aumentar los ingresos de Google, sin ser éticos», dijo en una entrevista para Business Insider.

«Si se desea desarrollar tecnología como Google’s AI Chatbot, las empresas tienen la responsabilidad moral de salir y recopilar datos relevantes que no están disponibles en internet», dice Lemoine. «De lo contrario todo lo que estás haciendo es crear una inteligencia artificial que apunte a los valores occidentales ricos y blancos», concluyó .

Aunque todavía está por verse el verdadero poder de LaMDA, la realidad es que va un paso por delante de los modelos de lenguaje anteriores a Google. Está diseñado para entablar conversaciones de formas más naturales que cualquier otro dispositivo.

Una acusación con respuesta

Google respondió a las afirmaciones de Lemoine asegurando que LaMDA ha pasado por 11 revisiones éticas. La compañía agrega que su «responsable» desarrollo se detalló en un documento publicado por ellos mismos a principios de este año.

Fotografía: Google

Si bien es cierto que no se puede comprobar con exactitud que el Bot es consciente de los resultados que arroja, no existen pruebas que digan lo contrario. Si tenemos en cuenta que se trata de la tecnología de IA más moderna de Google, podemos desmentir que sea de total desconocimiento los sesgos que posee.

Expertos apuntan que las predicciones algorítmicas no solo excluyen y estereotipan a las personas, sino que también pueden encontrar nuevas formas de categorizar y discriminar a los seres humanos.

Al respecto, Sandra Wachter, profesora de la Universidad de Oxford, sostiene que su mayor preocupación es «la falta de marcos legales para detener la discriminación por IA». Este incidente puede ser el detonante que finalmente arroje luz sobre los marcos legales que definan la ética de las nuevas tecnologías.

Por: KR.

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.

CONTINÚE LEYENDO

Related Posts

No Content Available
Next Post