Ene 8 2020
549 lecturas

Ciencia y Tecnolog铆a

Una libertad tecnol贸gicamente guiada

鈥淟a caja negra de los algoritmos es la caja de herramientas del Big Data. Con el microscopio se abri贸 una nueva ventana de conocimiento sobre la naturaleza. Con los algoritmos digitales aplicados al flujo de datos de la red Internet, las acciones humanas son medibles y predecibles鈥.

La sociedad actual est谩 caracterizada, entre otros aspectos, por la aparici贸n de las nuevas tecnolog铆as de la informaci贸n, las comunicaciones y el conocimiento (las TIC), accesibles por medio de smartphones, tablets, computadoras y todo dispositivo que se conecte a internet. En este contexto, asistimos a una serie de relevantes transformaciones en el 谩mbito psicosocial, afectando a todos los colectivos sociales en medio de un ambiente de euforia electr贸nica, cuando no en un modo de 芦murmullo禄 o 芦parloteo禄 i.

Como se帽ala Huici, la primera gran expansi贸n de Facebook coincidi贸 con la primera crisis econ贸mica del a帽o 2007, que potenci贸 el desarrollo digital de servicios de plataformas digitales orientados a la individualizaci贸n, orientaci贸n o gu铆a de cada navegante de la red de redes.

En 2015 Facebook ten铆a 1.350 millones de usuarios, miembros (registrados), que se comunicaban en 70 idiomas y utilizaban 50.000 servidores (computadoras de altas capacidades de procesamiento y almacenamiento). Facebook se ha constituido as铆 en uno de los 鈥渄ue帽os de Internet鈥 controlando Instagram desde el 2012 y Whatsapp desde el 2014; un enorme negocio que representa m谩s de 25.000 millones de d贸lares anuales y un volumen de datos much铆simo mayores a los millones de d贸lares estimados.

El valor pol铆tico del flujo de datos permanente de esta plataforma digital, fue visible en el 2013 cuando la Agencia de Seguridad Nacional de EU reconoci贸 la utilizaci贸n de Facebook para el seguimiento de ciudadanos que aportaban sus datos 鈥渋nocentemente鈥, informaci贸n que durante a帽os hab铆a sido un objetivo de los trabajos de inteligencia. Algo similar sucede con los buscadores del tipo Google que llevan invisibles cookies (peque帽os softwares) que permite identificar al usuario y trazar un mapa de su navegaci贸n por las webs y profundidad de penetraci贸n en cada una, estos datos configuran nuevos productos del negocio digital.

Comprender los alcances de los algoritmos y sus contextos de aplicaci贸n, nos ayudar谩 a comprender c贸mo la digitalizaci贸n de la vida cotidiana y nuestra relaci贸n con las plataformas y servicios digitales est谩 orientada por una infraestructura de c贸mputos que conforman el proceso de los algoritmos. Por ello, se hace necesario comprender, discutir y criticar la manera c贸mo los algoritmos, que no conocemos, marcan nuestros d铆as.

El famoso cantautor Peter Gabriel, anticipa: 鈥淧arece inevitable que el decreciente costo del escaneo de la mente, junto al creciente poder de la computaci贸n, nos lleve pronto al punto en que nuestro propio pensamiento ser谩 visible, descargable y abierto al mundo en nuevos modos. Los pasados a帽os hemos presenciado robots que construyen puentes y casas, directamente de impresoras 3D. Pero pronto seremos capaces de conectarnos con el pensamiento del arquitecto e imprimirlo y ensamblarlo en un edificio inmediatamente. Lo mismo ocurrir谩 con el cine, la m煤sica y todo proceso creativo鈥.

Se define algoritmo como 芦un conjunto ordenado y finito de operaciones que permite hallar la soluci贸n de un problema. Basta pensar en una receta de cocina o como ense帽amos a nuestros peque帽os a dar sus primeros pasos y caminar. Estas acciones operan sobre datos para obtener conclusiones y conocimientos. En la sociedad contempor谩nea, los algoritmos han adquirido un rol cada vez m谩s central, haciendo que algunos los definan como una suerte de mano invisible que toma decisiones por nosotros.

La expansi贸n de los m茅todos de c谩lculos expresados como algoritmos, algunos disponibles desde 1950, se debe en gran parte al encuentro de estas herramientas y la inform谩tica, particularmente con al binomio software (aplicaciones APP) y las capacidades crecientes de velocidades en los procesadores de las computadoras, que posibilitan procesamientos a gran escala hoy determinados por el Big Data.

Los c谩lculos penetran tan 铆ntimamente nuestra vida, que no logramos percibir con claridad c贸mo se conducen nuestros datos a infraestructuras estad铆sticas ubicadas en lejanos servidores ii. As铆, un n煤mero creciente de dominios de conocimientos como la cultura, el conocer y la informaci贸n, pero tambi茅n la salud, la ciudad, el trasporte, el trabajo, las finanzas e incluso el amor y el sexo son modelados y mediados por algoritmos.

Dos din谩micas avanzan para hacernos entrar en una 鈥渟ociedad del algoritmo鈥. La primera es la digitalizaci贸n de la sociedad; la segunda el desarrollo de los procesos. Estos 煤ltimos entregan a las computadoras las instrucciones matem谩ticas para clasificar, ordenar, agrupar, predecir, tratar agregar y representar la informaci贸n. Por medio de datos cada vez m谩s desapercibidos (desplazamientos de personas, tickets de compras, clics en Internet, consumo online, tiempo de lectura de un libro digital, tiempo de escucha de m煤sica y permanencia en v铆deo por demanda), los algoritmos cifran el mundo, lo clasifican y predicen nuestro consumo presente y futuro. Pueden medir cada una de las acciones que realizamos en la red internet.

Omnipresentes en nuestras vidas, los algoritmos son presentados como misteriosos a nuestros conocimientos por no saber de su existencia y funcionalidad. Una nueva religi贸n con nuevos actos de fe. Raramente nos cuestionamos c贸mo estos procesos de l贸gica y c谩lculo se producen y la visi贸n de mundo que conllevan. Por ejemplo, que los algoritmos usados por los gigantes tecnol贸gicos, conocidos como GAFAM (Google, Amazon, Facebook, Apple y Microsoft), no sean siempre justos en las decisiones que toman. Los algoritmos operan dentro de lo que se conoce como 芦cajas negras禄, lo que significa que no sabemos c贸mo est谩n tomando esas decisiones. Es decir, no conocemos sus funcionalidades. Los errores en los sistemas de reconocimiento facial son una muestra.

La dependencia en aprendizaje autom谩tico, un conjunto de t茅cnicas de aplicaci贸n computacional para entrenar algoritmos con datos, ha hecho que el problema de los sesgos sea cada vez m谩s importante para la comunidad vinculada a iniciativas de Inteligencia Artificial. Parte del problema es que las bases de datos empleadas para entrenar a los algoritmos no siempre es lo suficientemente diversa en el criterio de selecci贸n en la representaci贸n social de los datos.

Esos sesgos tambi茅n pueden afectar a decisiones como el seguro m茅dico u obra social o prepaga, la escolaridad o el registro criminal, la aceptaci贸n a una candidatura laboral.

En el sector p煤blico, a medida que las decisiones gubernamentales se vuelven m谩s automatizadas, estos riegos son ciertos. Por lo tanto, el sector p煤blico y de gobierno no deber铆a utilizar algoritmos de caja negra. La Estad铆stica Estatal debe ser publicada y conocida por los ciudadanos. Adem谩s, son necesarias pol铆ticas p煤blicas que regulen al sector privado. Los ciudadanos deben conocer las implicancias funcionalidades de los algoritmos que son utilizados en Internet, es una responsabilidad de cada estado. Una radiograf铆a cr铆tica de los algoritmos es una necesidad democr谩tica tan esencial como desapercibida.

El contexto cultural definido por 鈥渓os due帽os de internet鈥iii y los l铆deres de la digitalizaci贸n del mundo (las GAFAM) y el valor que mueve el c谩lculo algor铆tmico no es otro que el de la personalizaci贸n, el del individualismo. Poder medir cada acci贸n personal en los recorridos de la red internet, sus gustos y consumos. Este sesgo en la confecci贸n del software que implementa el algoritmo (programaci贸n del algoritmo) responde a modelos pol铆ticos y culturales de relaciones sociales y distribuci贸n del conocimiento y la riqueza.

En el caso de la web su valor es el de la 鈥減opularidad鈥. Su forma de medici贸n es similar a aquella de las audiencias offline. Primero indexaron los contenidos de las webs y nos entregaron el buscador Google. Ahora el valor de la medici贸n (Google Analytics) dispone de la infraestructura de contenidos globales que permite medir los recorridos y consumos de los datos en las webs.

La caja de herramienta para medici贸n Google Analytics construye el principio rector de sus herramientas: la autoridad.

Explicitada en su forma de medici贸n, la del ranking. Para ello, se capacitan ej茅rcitos de analistas de Marketing y estrategas de modelos de consumo. Google analiza los datos del tr谩fico en Internet que generan las propias marcas. La reputaci贸n de estas mediciones da el valor de credibilidad que permite que el resultado del an谩lisis de los datos sea un producto de mejor venta, las instituciones m谩s confiables y los servicios de mejor garant铆a. As铆 Google Analytics se ha convertido en el 鈥渞egulador鈥 del 鈥渆stado internet鈥.

Los m茅todos de predicci贸n completan este tablero Estad铆stico, estos resultados orientan la conducta sobre el consumo de los navegantes que surfean las webs. 隆De la Estad铆stica cuantitativa a la cualitativa logran predecir las emociones!

 

En este sentido, el Big Data se centra m谩s en la ciencia de datos y los modelos de an谩lisis que en la acumulaci贸n de datos. Las medidas se han vuelto m谩s f谩cilmente calculables; las categor铆as persiguen singularizar a las personas y las correlaciones estad铆sticas no van de la causa hacia las consecuencias, sino de las consecuencias hacia un n煤mero probable de causas.

Las pol铆ticas neoliberales de los a帽os 1980, indica Dominique Cardon, hicieron perder autoridad a las categor铆as tradicionales (profesi贸n / clase social) y les han entregado un nuevo uso a los instrumentos estad铆sticos. Estos sirven menos para representar lo real que para actuar sobre ello. De este modo, una medida particular se ha convertido en la realidad misma que se pretende medir; los buenos resultados de un colegio en una prueba estandarizada son una manifestaci贸n de la calidad de ese colegio; los cient铆ficos m谩s citados se han convertido en los mejores cient铆ficos, los m煤sicos m谩s producidos y escuchados son los que hacen mejor m煤sica. Es el mundo el que se vuelve directamente medible y calculable.

Otra transformaci贸n importante del c谩lculo algor铆tmico es el desbordamiento de las categor铆as. All铆 donde la existencia de la sociedad era supuesta, hoy es puesta en suspenso para purificar relaciones entre variables. Ya no es relevante saber por qu茅 la gente hace lo que hace, lo importante es que lo hace y ahora es posible reg铆strarlo como nunca antes.

Imagen relacionadaLos datos permiten cuantificar cosas que antes resultaban desconocidas.

Si nuestro mundo es imperfecto se帽ala Dominique Cardon, era porque faltaban datos para corregirlo. Si la investigaci贸n cient铆fica quiere ser parte de las gigantescas infraestructuras de c谩lculo, ella debe tomar distancia de ciertas mitolog铆as que encubren al Big Data. Se debe tener presente que toda cuantificaci贸n es una construcci贸n, que implica un dispositivo de medida y registro, la cual establece convenciones para interpretarlos.

Los datos no hablan m谩s que en funci贸n de los cuestionamientos e intereses de quienes los interrogan.

Nos inducen a pensar que las m谩quinas/computadoras son inteligentes y poseedoras de un esp铆ritu. En la actualidad, los realizadores de computadoras han abandonado esta pretensi贸n y han optado por hacer a las m谩quinas estad铆sticas en vez de inteligentes. Si las m谩quinas se vuelven estad铆sticas, los individuos se volver铆an lo que Gilles Deleuze denomin贸 un 鈥渄ividuo鈥 en la sociedad de control. Un ciudadano fragmentado en un capitalismo de producto. De ciudadano a consumidor, de masa a mercado.

En una 茅poca de cultura neoliberal, donde las personas por medio de sus representaciones, ambiciones y proyectos, se piensan como sujetos aut贸nomos, por fuera de modelos pol铆ticos incluyentes o excluyentes. Los c谩lculos algor铆tmicos atrapan sus deseos con la regularidad de sus pr谩cticas personales. El rol de las pol铆ticas p煤blicas es transferido a las pol铆ticas del mercado donde la concentraci贸n tecno-cient铆fica en las GAFAM define el nuevo estado.Resultado de imagen para gafam

Otras pol铆ticas p煤blicas son necesarias para la sociedad de los algoritmos. Los procesos y sesgos deben estar explicitados para los ciudadanos, como alertas en el mundo de internet y en la Estad铆stica Estatal.

Es necesario conocer la visi贸n pol铆tica y cultural que se implementa en los procesos algor铆tmicos y el sesgo de los datos que arrojan resultados como verdades. Hay que instalar una mirada cr铆tica al funcionamiento de los c谩lculos. Es necesario saber 驴Qu茅 sentido y objetivo implementan los algoritmos? Estos sentidos configuran un posible mundo donde el reconocimiento de los m茅ritos no encuentra trabas; donde la autoridad se obtiene 煤nicamente en torno a la calidad.

Las mediciones de autoridad (ranking) a las primeras posiciones aumentar铆an las desigualdades. La ley de Pareto de reparto de desigualdades -que se帽ala que el 20% de la poblaci贸n obtiene el 80% de los bienes a distribuir- se incrementa en la web, donde menos del 1% de los actores se llevan el 90% de la visibilidad.

Los algoritmos hacen so帽ar a las personas entregando herramientas para que 茅stas reconozcan sus afinidades y se autoorganicen. Las posibilidades de aplicaciones/herramientas que entregan las redes sociales para que los individuos se relacionen y organicen de acuerdo a sus gustos, intereses, valores e ideas compartidas, son un vector de socializaci贸n que rompe con la crisis de confianza imperante.

La recomposici贸n de la sociedad a partir del involucramiento expresivo de los individuos, es sin duda la parte m谩s positiva de las nuevas formas de vida digital. Las pol铆ticas p煤blicas que logren canalizar estas representaciones permitir谩n contener y construir una democracia m谩s representativa basada en la econom铆a solidaria.

Las GAFAM persiguen instalar un ambiente tecnol贸gico invisible que permita a las personas orientarse, sin contrariarlos. Gran parte de nuestras elecciones diarias, son efectuadas por una infraestructura socio-t茅cnica; comprar un billete de avi贸n, traducir idiomas autom谩ticamente, encontrar el mejor restaurante, conseguir una cita personal, llenar la heladera o cargar la SUBE (tarjeta digital para utilizar transporte p煤blico en Argentina). De este modo, la sensaci贸n de elegir se encuentra socialmente distribuida.

Uno de los riesgos del ceder las elecciones cotidianas a infraestructuras tecnol贸gicas, son los procesos digitales irreversibles. Otro riesgo que comportan estos nuevos procesos socio-t茅cnicos ser铆a el traspaso de habilidades complejas (manejQu茅 es GAFAM y por qu茅 dominar谩 el mundo digitalar un avi贸n, realizar dise帽os, leer una radiograf铆a digital), desde los humanos hacia los instrumentos o dispositivos. De esta manera, es m谩s necesario que nunca aprender a no desaprender.

Sin embargo, no hay que olvidar, se帽ala Dominique Cardon, que los sue帽os no son m谩s que sue帽os y que el uso que hacen los utilizadores son siempre m谩s fluidos, vagabundos y complejos de lo que los realizadores de estos c谩lculos imaginaron. As铆, m谩s que dramatizar el conflicto entre los humanos y las m谩quinas, ser铆a juicioso considerarlos como una pareja que no deja de retroalimentarse e influenciarse mutuamente.

En la breve conclusi贸n de su texto: 鈥淟a ruta y el paisaje鈥, Cardon se帽ala que, como el GPS, los algoritmos no nos dicen d贸nde ir (no definen nuestros objetivos), s贸lo nos muestran la ruta (su ruta) m谩s conveniente a nuestros intereses. Estos ser铆an el producto del deseo de libertad y de autonom铆a del individuo.

A pesar de ello, los algoritmos obligan al internauta, como al conductor, a una ruta calculada, eficaz y autom谩tica que se adapta a nuestros deseos y se rige en funci贸n del tr谩fico de otros. As铆, es dif铆cil reconocer que implica nuestro trayecto en relaci贸n a otros posibles (rutas alternativas, perif茅ricas), o como 茅stas representan un conjunto m谩s amplio. Con el mapa hemos perdido el paisaje, afirma el autor. Es por ello que se hace m谩s necesario que nunca ser vigilantes y pedirles a los algoritmos que nos muestren tanto la ruta como el paisaje.

Los algoritmos gu铆an nuestras preferencias y atan nuestras elecciones a nuestras conductas pasadas. Vuelven realidad el sue帽o liberal de la elecci贸n sin ataduras, pero este sue帽o esconde tambi茅n su contracara. Una libertad tecnol贸gicamente pautada y guiada.

Notas

i Vicente Huici (2017) Crisis y zoom elektronik贸n.

ii Cardon Dominique 鈥淐on que sue帽an los algoritmos鈥

iii Natalia Zuazo 鈥淟os due帽os de Internet鈥

*Profesor TIC en Universidad Nacional de Moreno, Argentina. Ingeniero TIC en ARSAT

 

 

  • Compartir:
X

Env铆e a un amigo

No se guarda ninguna informaci贸n personal


    Su nombre (requerido)

    Su Email (requerido)

    Amigo(requerido)

    Mensaje

    A帽adir comentario