No sé si les pasa lo mismo que a mí, pero desde hace un buen tiempo no sé qué ver en Netflix.  Y aunque parezca un problema menor, adquiere importancia si pensamos que pasamos casi 7 horas diarias en internet y que el 52% del tiempo lo usamos para ver videos y películas (Kempt et al., 2021). 

Me pregunto entonces ¿qué pasó con esa promesa de contenido personalizado, con la que nos convenció Netflix de obtener su suscripción? O más importante aún ¿cómo funcionan sus recomendaciones?

La plataforma afirma en su portal de ayudas, que su sistema de recomendaciones permite acceder a shows y películas con un mínimo esfuerzo, a partir de 6 parámetros: visualizaciones, usuarios similares, información del contenido, tipo de dispositivo, hora y duración de visualización.

Aunque no es muy claro cómo usan algunos de estos parámetros para sus predicciones, Netflix lo explica diciendo que toman todos esos datos y los usan como inputs de análisis en su algoritmo, que a su vez definen como: “un proceso o conjunto de reglas que se siguen en una operación de resolución de problemas” (Netflix, 2021).

Con más dudas que certezas, concluí que la pregunta no debía orientarse sólo al análisis técnico de modelos predictivos, sino también a cuestionar la promesa de Netflix de modificar nuestro comportamiento a través de un algoritmo. Debía adoptar una perspectiva más amplia del fenómeno y desde las ciencias sociales.

En ese proceso encontré el trabajo de Ignacio Siles, Johan Espinoza-Rojas, Adrián Naranjo & María Fernanda Tristán: “The mutual domestication of users and algorithmic recommendations on Netflix”. En él afirman que el algoritmo representa el “colonialismo de los datos”, la combinación entre prácticas de explotación extractivistas (colonialismo) y la idea abstracta (y “objetiva” sumaría yo) de la cuantificación computacional. Con esto, Siles y sus colaboradores,  no solo ilustran el carácter histórico, político, social, económico y material que tiene la tecnología, también le suman el problema que supone el uso de los datos en la utilización de algoritmos.

Con respecto a este último punto, Sarah Pink y Debora Lanzeni exponen en “Future Anthropology Ethics and Datafication: Temporality and Responsibility in Research” el problema que supone concebir a los datos como objetivos y totalizantes (donde nada existe fuera de su espectro). Aquel acercamiento deja a un lado el contexto dentro del cual se produjeron y la intención para la cual se utilizan. En palabras de Paul Dourish & Edgar Gómez: su relación narrativa. (Dourish & Gómez, p2 2018)

Esta forma de entender las relaciones materiales que comprenden la tecnología y las narrativas detrás de los datos, adquiere mayor importancia en un entorno en el que el “Big Data”  se utiliza para predecir o cambiar comportamientos, “precisamente porque se basa en una comprensión equivocada, tanto de lo que son los datos como de la forma como proceden las personas a lo largo de su vida cotidiana, en un mundo procesual, como seres creativos que improvisan.” (Pink & Lanzeni, p4 2018).

Es así como ocurre con Netflix. En la plataforma se elimina la agencia de la persona “usuaria” y se deja la toma de decisiones en manos de modelos predictivos. Esto sucede justamente porque bajo esa narrativa se considera al algoritmo como: objetivo, exacto, inequívoco e incuestionable.

So Netflix added new profile avatars... my mom is so confused :  StrangerThings

Es a esta interacción entre persona usuaria y algoritmo a la que Siles et al. llaman en su texto: “mutua domesticación”, entendida como la forma en la que los usuarios incorporan a Netflix (y su algoritmo) en su vida cotidiana y al mismo tiempo la plataforma intenta colonizarlos, como consumidores ideales, a través de sus recomendaciones (Siles et al. p515 2019).

Con todo esto vuelvo a mi problema inicial y es ¿por qué no encuentro nada en Netflix? Lo que me lleva a concluir que esto ocurre precisamente porque dichas plataformas sitúan narrativamente al algoritmo en el centro, partiendo de supuestos datos objetivos que reducen nuestra agencia como usuarios a un mero ejercicio de selección, dejando en manos de modelos predictivos la comprensión de comportamientos humanos, que son por demás: confusos, desordenados y caóticos.  

Pero el centro del problema radica en el hecho de que como usuarixs alimentamos dicha narrativa algorítmica totalizante, es decir que parte del supuesto de que el algoritmo lo ve y lo entiende todo, adoptando e interiorizando esa promesa de resultados certeros y de la que yo también hago parte, en la forma en la que planteo mi inquietud inicial en este texto

How the Netflix Algorithm Weighs Race

Pero ¿qué ocurre cuando el algoritmo no se utiliza para la selección de contenidos sino en la obtención de un empleo, un crédito o una casa?, ¿cuál sería el verdadero alcance que éstos tendrían en la predicción de nuestros comportamientos?, ¿qué rol cumpliríamos (como usuarias, ciudadanas o trabajadoras) en la toma de decisiones frente a sistemas automatizados?, ¿qué posibilidades tendríamos de oponernos a las decisiones tomadas por algoritmos?

Responder a éstas y muchas otras preguntas que surgen de nuestra interacción con “lo digital”, es la invitación que hace Edgar Gómez a las ciencias sociales (Gómez, 2020). Preguntas que se cuestionen por: el poder, el control y los prejuicios (género, raza, origen), que en ocasiones pasan desapercibidas ante la promesa de la tecnología de hacernos la vida más fácil.

Referencias

Dourish, P., & Gómez Cruz, E. (2018). Datafication and data fiction: Narrating data and narrating with data. Big Data & Society, 5(2), 205395171878408. doi:10.1177/2053951718784083

Gómez, E. (Director). (2020, September 03). Etnografía Digital: DEL Ciberespacio a la Cultura Algorítmica [Video file]. Retrieved April 27, 2021, from https://www.youtube.com/watch?v=us648G3XAfE&t=20s&ab_channel=EdgarG%C3%B3mez

Kemp, S., Mazloumian, P., Currey, H., & Wickerson, B. (2021, January 27). Digital 2021: The latest insights into the ‘state of digital’. Retrieved April 23, 2021, from https://wearesocial.com/blog/2021/01/digital-2021-the-latest-insights-into-the-state-of-digital

Netflix. (n.d.). How Netflix’s recommendations system works. Retrieved April 23, 2021, from https://help.netflix.com/en/node/100639?ba=SwiftypeResultClick&q=algoritmo

Pink, S., & Lanzeni, D. (2018). Future anthropology ethics and datafication: Temporality and responsibility in research. Social Media + Society, 4(2), 205630511876829. doi:10.1177/2056305118768298

Siles, I., Espinoza-Rojas, J., Naranjo, A., & Tristán, M. F. (2019). The mutual domestication of users and algorithmic recommendations on Netflix. Communication, Culture and Critique. doi:10.1093/ccc/tcz025

José Serrano

Maestro en Antropología Visual y de Medios en la Freie Universität Berlín, con pregrado/licenciatura en Antropología y opción/énfasis académico en Relaciones Internacionales del Departamento de Ciencia Política de la Universidad de los Andes (Bogotá, Colombia)

Especial interés por la investigación y el análisis de los comportamientos sociales y sus consecuencias en el uso e interacción con los medios de comunicación: Digital / Audiovisual). Ha trabajado temas relacionados con: los medios indígenas, la narrativa, el lugar y la memoria y recientemente desarrolla su estudio alrededor del impacto de los algoritmos y la inteligencia artificial en la forma de habitar la ciudad.

Correo: joseserranosierra@gmail.com

Página: https://joseserranosierra.com/

Twitter: @medianthropos

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s