martes, 15 de enero de 2019

Pensando fuera de la caja negra


Lo que los algoritmos no pueden ver puede ser lo más humano de nosotros -9 de enero.Ir al perfil de Douglas Rushkoff

Los algoritmos nos empujan a convertirnos en caricaturas de nosotros mismos. No se limitan a predecir nuestro comportamiento; lo moldean.

Se siente como que finalmente hemos alcanzado el "pico de Facebook".
Gracias en parte a las recientes revelaciones sobre cómo la compañía dio acceso a datos de usuario y mensajes privados a Netflix, Spotify y otros, así como a la campaña de trucos sucios para difamar al crítico de Facebook George Soros, la gente se está dando cuenta de que la plataforma no lo hace. Simplemente lastimar a la sociedad como efecto secundario. Facebook es un actor intencionalmente malo. Dicho esto, tal vez haya algo que ganar o aprender de la red social antes de que desaparezca.
Puede que no tengamos mucho tiempo. Los productos de Facebook se han vuelto demasiado destructivos para que casi cualquiera los justifique. Una década de artículos, documentales y planes de estudio escolares dedicados a explicar a los usuarios que no son clientes de Facebook, sino su producto, combinado con la evidencia de su memética armada y la sensación de que los algoritmos se han dirigido de forma activa, finalmente ha pasado factura: usa Facebook cuando es absolutamente necesario, pero rara vez porque lo desea. Y ahora, con toda la desesperación de una compañía de cigarrillos que niega que su producto sea adictivo, Facebook ha revelado qué tan bajo irá culpando a los espías rusos por usar la plataforma como diseñada o maltratada al filántropo judío George Soros porque, bueno, es fácil Objetivo y una distracción infalible.
Claro, Facebook aún puede lanzar un Hail Mary audaz, como cuando un AOL en declive se fue y compró Time Warner, pero incluso la compra de un Netflix o Disney solo retardaría temporalmente el sangrado. La marca corporativa está rodada porque Facebook se ha convertido en la cara de la mala conducta algorítmica. Es el niño del cartel de cómo la tecnología puede volverse contra la agencia humana. La compañía emplea finanzas de comportamiento, invasión de la privacidad y aprendizaje automático para manipular a los usuarios a la manera de las máquinas tragamonedas de Las Vegas, y luego afirma inocencia o ignorancia cuando se revela el impacto social de estas maquinaciones.
Pero ahora que Facebook parece estar destinado a la irrelevancia, me pregunto si puede haber un uso positivo para la plataforma después de todo. No, no para hacer amigos o comunicarse con personas, de todos modos ninguno de los dos fue el punto fuerte de Facebook. El verdadero valor que podemos obtener de Facebook proviene de la interacción directa y deliberada con sus interiores oscuros: los algoritmos mismos.
Los esfuerzos torpes de Facebook para reflejarnos de nuevo a nosotros mismos ofrecen un vistazo a las cajas negras que cada vez dominan más nuestra sociedad.
Los algoritmos de Facebook nos entienden solo a través de la lente del capitalismo. Quieren saber solo las cosas sobre nosotros que pueden ser monetizadas.
El aspecto más agravante de Facebook es también su aspecto más intrigante: la forma en que intenta predecir nuestras necesidades y deseos. En la superficie, es simple: la plataforma utiliza lo que sabe sobre nosotros a partir de nuestros clics y me gusta, así como las acciones compartidas y las opciones de amigos que permiten a los profesionales de marketing publicar anuncios a los que es probable que respondamos. A veces, los datos son analizados por el propio Facebook, y a veces son analizados por los clientes de Facebook, quienes pueden combinar la información que obtienen sobre nosotros en Facebook con los datos que obtienen de las muchas otras herramientas de vigilancia de la web. Así es como el tema de un hilo de correo electrónico o búsqueda en la web puede terminar siguiéndonos.como anuncios Gracias al intercambio de datos entre empresas, las cookies que rastrean nuestra actividad web y los algoritmos que leen nuestras publicaciones públicas, la mayoría de Internet funciona de esta manera. Al reenviar un mensaje crítico sobre un candidato político progresista, puede obtener anuncios dirigidos o artículos que condenan el control de armas, por ejemplo.
No sé qué me parece más desconcertante: cuando los anuncios y las recomendaciones que acechan todos mis movimientos en línea tienen un entendimiento demasiado extraño de quién soy, o cuando me devuelven una foto de mí mismo con la que no me relaciono. . Como cualquier persona, me molesta cuando parece que la conversación que acabo de tener en mi teléfono celular sobre un problema médico privado parece haber informado el nuevo anuncio que me está persiguiendo en la web. Lo más probable es que los algoritmos me diagnosticaron según los hábitos de navegación, la edad y otros metadatos.
Pero, ¿qué pasa cuando los algoritmos comienzan a enviarme anuncios y artículos con más puntos de vista que los que tengo? Las listas de actos "traidores" de Trump, las formas en que Rusia está espiando mi hogar o cómo detener a los invasores inmigrantes. ¿Qué tal cuando parecen conocer mis peores temores y luego jugar con ellos y exagerarlos para que responda? En otras palabras, clickbait, personalizado a mi perfil psicológico, según lo determinado principalmente por un análisis de mi comportamiento en línea. Cualquiera que haya seguido el motor de recomendación en YouTube sabe que después de entregar uno o dos videos inocuos, la señal "Próxima" ofrece contenido cada vez más extremo. Los algoritmos nos empujan a convertirnos en caricaturas de nosotros mismos. No se limitan a predecir nuestro comportamiento; lo moldean.
Entonces, si bien las plataformas como Facebook, YouTube o Twitter pueden ser terribles fuentes de noticias e información, la transparencia de sus manipulaciones y las de sus clientes comerciales nos ofrece una ventana a la manera en que el entorno de los medios digitales se reconfigura implacablemente, y, por supuesto, extensión, el mundo que controla, basado en sus juicios estrechos y manipulaciones agresivas. Todo lo que aparece es, de una manera u otra, un reflejo de nuestras acciones anteriores, tal como se procesan por los algoritmos y se ponen al servicio de los intereses corporativos. Es un ecosistema completo de noticias, marketing, publicidad y propaganda, atado a algoritmos, todos compartiendo información entre nosotros sobre quiénes somos, cómo pensamos, a qué respondemos y qué ignoramos.
Esos algoritmos, como estamos aprendiendo ahora, determinan mucho más de lo que veremos los anuncios, los precios de nuestros boletos de avión o las teorías de conspiración que se abren paso en nuestras noticias. Se toman en cuenta las decisiones sobre nuestros préstamos bancarios e hipotecas , nuestras visas y exámenes de aeropuerto , nuestras solicitudes de empleo , las determinaciones de libertad condicional , la reputación legal o incluso nuestra capacidad para conseguir un concierto de cuidado de niños . Las formas en que estos algoritmos evalúan nuestra idoneidad son, por supuesto, patentadas y segregadas en tecnologías de caja negra. Pero, como numerosos investigadores han determinado, esas cajas negras están llenas de los mismos prejuicios que han estado reforzando el sesgo racial y otras formas de opresión todo el tiempo.
En solo un ejemplo, los jueces ahora usan una herramienta algorítmica llamada COMPAS para determinar las sentencias de los delincuentes convictos. Cuanto mayor sea la expectativa de que alguien regrese a prisión, más larga será la sentencia. Pero al calcular el puntaje de reincidencia de un delincuente condenado , COMPAS no evalúa realmente la probabilidad de que una persona cometa un delito, sino simplemente su probabilidad de ser atrapado. En otras palabras, el algoritmo inevitablemente amplifica el sesgo institucional de la policía, que es más probable que arresten a los negros que a los blancos por los mismos delitos. El enfoque no solo fomenta la injusticia racial, sino que también socava el supuesto propósito de las instalaciones correccionales en primer lugar. Y eso es sólo en los Estados Unidos. En China y otros estados más represivos, la puntuación de las redes sociales castiga o recompensa a las personas basado no solo en lo que hacen o dicen, sino también en lo que hacen o dicen sus conexiones en línea.
Para empeorar las cosas, todas estas decisiones se basan en los resultados de las tecnologías patentadas. Si hay una ventaja en los esfuerzos torpes de Facebook para reflejarnos de nuevo a nosotros mismos, es que ayudan a exponer este proceso por lo demás opaco. Son un vistazo al tipo de cajas negras que cada vez dominan más nuestra sociedad. Y por más incómodo que nos sintamos al mirar un algoritmo en la cara, los que están en secreto son aún más dañinos. Al hacer más visibles las maquinaciones de los algoritmos, las ofertas de Facebook por nuestra atención revelan la lógica defectuosa, la especulación perniciosa y los prejuicios integrados de un orden social, legal y político determinado algorítmicamente. Facebook se ha convertido en un caso de estudio escalofriante por el que los algoritmos nunca deberían aplicarse de esta manera, al menos no en este momento de nuestro desarrollo tecnológico y social. Todo lo que hacen es camuflar los prejuicios institucionales en un manto de tecnosolucionismo.
Y hay que enfatizar que los algoritmos de Facebook no son neutrales; Nos entienden solo a través de la lente del capitalismo. Quieren saber solo las cosas sobre nosotros que pueden ser monetizadas. Toda la plataforma se basa en esa comprensión fundamental de la personalidad humana tal como se define por el consumo egoísta. Así fue como ayudó a reducir el voto a una elección del consumidor.
Si realmente desea una Internet neutral, comience utilizando un navegador anónimo , desactive todas las cookies, busque sin perfil y oculte su dirección IP. Otra respuesta puede ser a flummox los algoritmos por completo. He intentado alterar mi comportamiento para ver si la plataforma me ofrecería contenido diferente. Pero no importa lo bien que me resista a hacer clic en historias sensacionalistas, los algoritmos no parecen aprender a querer ver una imagen precisa del mundo. Están comprometidos a encontrar las "hazañas" de mi personalidad y provocar una reacción impulsiva o inconsciente. Estaría mejor haciendo clic en todo al azar, excepto que probablemente haya una categoría para el tipo de persona que hace eso y una manera práctica de monetizar el gesto.
Un antiguo alumno mío ayudó a desarrollar una extensión de navegador llamada Ad Nauseam que no solo bloquea los anuncios web, sino que también sigue adelante y hace clic en cada anuncio bloqueado en segundo plano. El seguimiento de usuarios se vuelve inútil, porque los algoritmos solo pueden concluir que estás interesado en todo. Es el tipo de estrategia recomendada por los autores-activistas detrás del libro Ofuscación , en el que argumentan que la mejor manera de combatir la vigilancia digital es camuflar, rechazar o incluso sabotear los algoritmos. Estoy a favor de eso.
Pero tan distorsionado como puede ser en su forma actual, Facebook sigue siendo una especie de espejo. E incluso si no nos representa con precisión, especialmente si no nos representa con precisión, Facebook nos ofrece una oportunidad excepcional para explorar la diferencia entre lo que los algoritmos suponen sobre nosotros y quiénes somos realmente. Los aspectos de nosotros mismos que no pueden categorizar de manera significativa, los lugares donde fallan, representan algunas de nuestras cualidades más importantes como seres humanos simplemente en virtud del hecho de que los algoritmos aún no pueden cuantificarlos. Quizás la mejor manera de saber qué aspectos de nuestra humanidad no son computacionales es prestar más atención a los límites de los algoritmos en uso a nuestro alrededor.
¿Qué faltan en el comportamiento, la sociedad y la justicia los algoritmos utilizados por los jueces para determinar las penas de prisión? ¿Qué extrañan los algoritmos económicos sobre la prosperidad humana? ¿Qué extrañan los algoritmos médicos sobre la vitalidad humana? ¿Qué extrañan los algoritmos de las redes sociales sobre lo que realmente nos conecta unos con otros?
Incluso si rechazamos las soluciones algorítmicas a los problemas del mundo, al observar cómo fallan, podemos llegar a una mejor comprensión de cómo los humanos podemos tener éxito. Por esto, irónicamente, tenemos que agradecer a Facebook.
La brecha entre quiénes somos y quiénes son los algoritmos de la plataforma dice que podemos representar el pequeño misterio humano que nos queda. Debemos apreciarlo y cultivarlo en nosotros mismos y en todos los que conocemos. Entonces tal vez podamos finalmente cerrar sesión y volver a aprender cómo ser social sin medios.

No hay comentarios:

Publicar un comentario