Menú Cerrar

Sobre Inteligencia Artificial, No. 1

En cuanto alimentamos la Inteligencia Artificial y sus algoritmos, estos aumentan su poder de determinar qué contenidos consumimos y, al mismo tiempo, difundimos. ¿Tiene que ser así?

Por: Silveria Miranda

El sábado por la tarde fui al supermercado cerca de donde vivo. La cola era enorme, principalmente por dos razones: la primera, habíamos una veintena de clientes y solamente estaban atendiendo una caja; la segunda, esa actitud tan clasemediera que puede observarse en las cajas de los supermercados en muchas zonas de la ciudad de Guatemala: <no importa cuán ocupada esté la cajera, ni cuánta gente haya detrás de mí, me tiene que meter todas y cada una de mis compras en bolsas plásticas>.

Lanzándole torpedos imaginarios de indignación y rechazo al zombi de turno estaba, cuando me percaté que detrás de mí hacía cola una joven que no traía ninguna canasta de compras. Después de comentar algunas nimiedades e intercambiar sonrisas, me animé a preguntarle que qué iba a comprar que fuese tan necesario para hacer la cola aquella. Su respuesta me sorprendió. Me dijo: <voy a comprar saldo de Internet para ver unos videos en YouTube>. Resulta que entrena a su perro y la plataforma le sugiere contenidos congruentes; y, a partir de éstos, va encontrando otras personas con el mismo interés y termina viendo más videos recomendados.

Me pareció una forma sensata de resolver sus dudas y obtener material audiovisual con que lograr su cometido, pero no me pude sacar la espinita que me dejó metida. Con su respuesta en mente, me puse a buscar información al respecto y encontré un artículo de Guillaume Chaslot en la revista Wired titulado “The Toxic Potential of YouTube’s Feedback Loop”, que quisiera compartir con las y los lectores del boletín del CeppasGT.

Resulta que Chaslot trabajó en la división de Inteligencia Artificial de YouTube. A grosso modo, esta tiene como objetivo lograr que los usuarios pasen más tiempo en línea. Prácticamente todas las grandes compañías de las que consumimos información por Internet utilizan Inteligencia Artificial. Los usuarios de esta plataforma pasan 700,000,000 horas al día viendo videos, en el caso del news feed de Facebook son 950,000,000 horas diarias.

El artículo señala que, en febrero de este año, un usuario llamado Matt Watson descubrió que el algoritmo de recomendaciones de YouTube estaba facilitando a pedófilos encontrarse en la sección de comentarios de los videos recomendados a cierto tipo de usuarios y compartir entre ellos a su vez videos de pornografía infantil. Este no es el primer caso de conexiones entre usuarios híper-comprometidos, hechas por interfaces de Inteligencia Artificial. Ha pasado con mensajes terroristas, discursos de odio, contenido gráfico no apropiado para menores y zoofilia softcore, por mencionar algunos ejemplos.

Los algoritmos que la interfaz de Inteligencia Artificial de YouTube usa recomiendan a un usuario un video determinado mediante el seguimiento y medición de los hábitos que observa este usuario cuando interactúa con la plataforma y otros usuarios que se le parecen. En el caso del <escándalo de los pedófilos>, la Inteligencia Artificial de YouTube le estaba recomendando videos sugestivos a usuarios más propensos a verlos. Entre más poderosa se vuelve la Inteligencia Artificial –acumulando datos-, más eficiente es para recomendar contenido dirigido a cierto tipo de usuarios.

Parafraseando a Chaslot, acá es donde la cosa se pone fea: conforme mejora la Inteligencia Artificial de este tipo de plataformas, no solamente será más eficiente en recomendar cierto tipo de contenido a cierto tipo de usuarios -los que probablemente estén más interesados-, sino también será más eficiente en no recomendarlo a otros usuarios que probablemente estén menos interesados y pudiesen encontrar ese contenido ofensivo y, por ende, reportarlo.

El autor advierte que este escándalo es solo un ejemplo de una problemática mucho más amplia: los usuarios híper-comprometidos le van dando forma a la Inteligencia Artificial. En el mundo cotidiano, la Inteligencia Artificial, creadores de contenido y los usuarios se influyen mutua y profundamente. Como se dijo, el objetivo de estos programas es que las personas pasen más tiempo en línea; así, para la Inteligencia Artificial, los usuarios híper-comprometidos son vistos como “modelos a reproducir”, por lo que el contenido que comparten se ve favorecido por los algoritmos que usan. El feedback loop funciona algo así:

(1) Las personas que más tiempo pasan en una plataforma tienen mayor impacto en sus sistemas de recomendaciones mediante Inteligencia Artificial. (2) El contenido que comparten será más visto y tendrá más likes. (3) Los creadores de contenido observarán este hecho y crearán más contenido similar. (4) Las personas pasarán aún más tiempo interactuando con este tipo de contenido.

El artículo de Chaslot me hizo pensar en mi realidad y me pregunto: ¿Cómo estamos usando nuestras las redes sociales? Será que al darle like a casi todo lo que <María> o <José> publican en Facebook -porque piensan similar a mí-, ¿no me estarán encerrando sus algoritmos en un círculo de usuarios con ideas similares? Y, ¿qué significaría esto para mi comprensión del mundo? ¿Qué influencia tendrán sobre los tweets que leo sobre determinada problemática social –híper vinculada mediante algún(os) hashtag-, las huestes de “netcenteros” y la desinformación que generan?

Sin duda, el ciberespacio es un campo en disputa, lo que demanda de parte nuestra una actitud crítica, no solamente para con lo que aparece en nuestras pantallas, sino también hacia lo que está detrás de ellas, es decir, los algoritmos que definen la Inteligencia Artificial de las grandes compañías de tecnología y comunicaciones y los intereses que estas persiguen en su afán de lucro.

1 Comment

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *