martes, 15 de enero de 2019

Cómo Facebook ha aplanado la comunicación humana



Ir al perfil de david auerbach

Elnivel primitivo de comentarios de los usuarios alentados por los servicios en línea es una característica, no un error. Es mucho más fácil para una computadora dar sentido a un "me gusta" o una "⭐⭐⭐⭐⭐" que analizar el significado del texto en bruto. Las reseñas de los usuarios de Yelp son una parte necesaria de su atractivo para quienes visitan los restaurantes, pero Yelp no podría existir sin las calificaciones de estrellas, lo que permite una clasificación, filtrado y análisis histórico convenientes a lo largo del tiempo (por ejemplo, para saber si un restaurante está empeorando). ). Esto lleva a lo que llamaré ...

La primera ley de datos de internet

En cualquier contexto computacional, los datos estructurados explícitamenteflotan en la parte superior.
Los datos "explícitamente estructurados" son cualquier dato que trae consigo categorías, cuantificaciones y / o clasificaciones. Estos datos son independientes, por lo que no es necesario utilizar ningún contexto mayor. Los datos que existen en un contexto estructurado y cuantificable, ya sea el DSM, registros de crédito, Dungeons & Dragons , transacciones financieras, categorías de productos de Amazon o perfiles de Facebook, serán más útiles y más importantes para los algoritmos y para las personas y empresas que utilizan esos algoritmos, que los datos no estructurados como texto en lenguaje humano, imágenes y video.
Esta ley se ocultó en los primeros días de Internet porque había muy poca información cuantificada explícitamente. Los metadatos cuantificados explícitamente , como el gráfico de enlaces, que Google explotó de manera tan lucrativa, subrayaron que los algoritmos gravitan hacia datos cuantificados explícitamente. En otras palabras, los primeros días de internet fueron una aberración . En retrospectiva, el inicio de Internet fue el comienzono representativo de un proceso de cuantificación explícita que desde entonces comenzó con el advenimiento de las plataformas de redes sociales como Facebook, Snapchat, Instagram y Twitter, que son parte de la nueva norma. Esto también incluye a Amazon, eBay y otras compañías que tratan datos cuantificados explícitamente.
La web 2.0 no fue sobre lo social en sí. Más bien, se trataba de la clasificaciónde lo social, y más generalmente de la clasificación de la vida. Google había aspirado todo lo que podía ser sacado de los datos no estructurados. La maduración de la web exigía un contenido más explícitamente organizado que podría ser analizado más fácilmente por las computadoras. Y la mejor manera de hacer esto a escala era emplear a los usuarios para crear esos datos.
Los datos cuantificados explícitamente requieren que los datos se etiqueten y clasifiquen antes de que puedan ordenarse y ordenarse. El proyecto de archivos como la Biblioteca del Congreso no es clasificar los libros per se; está desarrollando la clasificación general que determina en qué orden deben estar los libros. Sin clasificación, sin clasificación. Incluso el aprendizaje automático se vuelve peor cuando está "sin supervisión", es decir, cuando no se le proporciona un marco de clasificación preexistente.

La segunda ley de datos de internet

Para cualquier conjunto de datos, la clasificación es más importante que lo que se clasifica.
Las conclusiones y el impacto de los análisis de datos se derivan más a menudo de las clasificaciones bajo las cuales se han recopilado los datos que de los propios datos. Cuando Facebook agrupa a las personas en alguna categoría como "bebedores de cerveza" o "entusiastas de la moda", no hay algún rasgo esencial de lo que une a las personas de ese grupo. Al igual que la receta secreta de Google, la clasificación de Facebook no tiene ningún secreto real. Es solo una amalgama de todos los factores individuales que, una vez sumados, dispararon el detector de categorías. Independientemente de lo que causó que Facebook decidiera que tenía una "afinidad étnica" afroamericana (¿eran mis registros de Sun Ra?), No es algo que claramente haga que un humano decida que tengo tal afinidad.
Lo que es importante, en cambio, es que tal categoría existe , porque dicta cómo seré tratado en el futuro. El nombre de la categoría, ya sea "afroamericano", "minoría étnica", "descendencia africana" o "negro", es más importante que el criterio para la categoría. Los criterios aprendidos de Facebook para estas categorías se superpondrían significativamente, sin embargo, la clasificación final posee un significado claramente diferente en cada caso. Pero la distinción entre criterios queda oculta. Nunca vemos los criterios, y con mucha frecuencia estos criterios son arbitrarios o totalmente erróneos. La elección de la clasificación es más importante que la forma en que se realiza la clasificación.
Los comentarios escritos sobre un artículo no le dan mucho a Facebook para continuar; es demasiado difícil derivar el sentimiento de las ambigüedades del texto escrito.
Aquí, Facebook y otros clasificadores computacionales exacerban los problemas existentes de las taxonomías provisionales. Las categorías del DSMdictaron más sobre cómo se veía una población de pacientes que las características subyacentes de cada individuo ,porque fue la categoría de recuentos la que se convirtió en la síntesis de datos. La imagen que uno tiene de la economía depende más de cómo se define el desempleo (ya se trate de personas que han dejado de buscar trabajo, trabajadores a tiempo parcial, trabajadores temporales, etc.) que de las experiencias y opiniones crudas de los ciudadanos. Y su opinión de su propia salud depende más de si su peso, dieta y estilo de vida se clasifican en cubos "saludables" o "no saludables" que en las estadísticas en sí mismas. Incluso el nombre de una categoría - "gordo" versus "sobrepeso" versus "obeso" - conlleva asociaciones que condicionan la forma en que se interpreta la clasificación.
Algunas clasificaciones son mucho más exitosas y populares que otras. La regla de oro dominante es ...

La Tercera Ley de Datos de Internet

Clasificaciones más simples tenderán a derrotar clasificaciones más elaboradas.
La simplicidad de los mecanismos de retroalimentación (me gusta, calificaciones de estrellas, etc.) es intencional. Servicios de internet puedenlidiar con ontologías complicadas cuando lo necesiten, pero con inercia técnica y de negocios, privilegiar a las más simples. Facebook esperó 10 años para agregar reacciones más allá de "me gusta" y resistió durante mucho tiempo las llamadas a un botón de "no me gusta", lo que obligó a sus usuarios a recibir anuncios de muerte y escándalos políticos. Facebook prefirió una simple métrica bimodal interesada / no interesada. Cuando Facebook finalmente decidió apaciguar a sus usuarios, agregó cinco sentimientos al original como: amor, jaja, guau, triste y enojado. No es una coincidencia que los dos sentimientos negativos estén al final: "triste" y "enojado" son más ambiguos que los otros. Si expreso una reacción positiva a algo, definitivamente estoy interesado en ello. Si algo me entristece o me enoja, es posible que aún me interese, o tal vez quiera evitarlo. Esas reacciones son menos útiles para Facebook.
Las seis reacciones de Facebook son similares a emoji, ya que permiten a los usuarios expresar emociones de forma no verbal, pero son más útiles para Facebook porque comprenden una clasificación más simple que los miles de emoji. BuzzFeed emplea un esquema similar, ligeramente más moderno, para las reacciones que permite a los usuarios publicar en artículos. El esquema de BuzzFeed está hecho a medida para la investigación de mercado: el contenido puede ser sorprendente, adorable, impactante, divertido, etc.
Bloomberg ‘s Sarah Frier explica cómo Facebook formuló sus nuevas reacciones:
Los investigadores de Facebook comenzaron el proyecto compilando las respuestas más frecuentes que la gente tenía para las publicaciones: "jaja", "LOL" y "omg tan cómico", todos entraron en la categoría de la risa, por ejemplo ... Luego resumieron esas categorías en seis respuestas comunes. lo que Facebook llama Reacciones: enojado, triste, guau, jaja, yay y amor ... Yay finalmente fue rechazado porque "no se entendió de manera universal", dice un portavoz de Facebook.
Estos sentimientos primitivos, irónicamente, permiten análisis más sofisticados de lo que permitiría un esquema más complicado, una razón importante por la que las clasificaciones más simples tienden a derrotar clasificaciones más elaboradas. Los comentarios escritos sobre un artículo no le dan mucho a Facebook para continuar; es demasiado difícil derivar el sentimiento de las ambigüedades del texto escrito, a menos que el texto sea tan simple como "LOL" o "grande". Pero una clasificación de seis veces tiene múltiples ventajas. Facebook, BuzzFeed y sus familiares buscan sentimientos universales e inequívocos. Hay poca o ninguna variación en las opciones de reacción en diferentes países, idiomas y culturas.
Los sentimientos también facilitan la comparación cuantitativa de las publicaciones. Los propios usuarios clasifican los artículos en "divertidos", "felices", "tristes", "conmovedores" e "exasperantes". Al observar las respuestas textuales, sería difícil estimar que "Canadá se atasca en el pacto comercial" y "el cantante pop". "Fuera del escenario" tiene algo en común, pero si ambos enfurecen a los usuarios lo suficiente como para hacer clic en el icono "enojado", Facebook puede detectar un punto en común. Esas clasificaciones permiten a Facebook unir los sentimientos de los usuarios con artículos clasificados de manera similar o tratar de animarlos si están tristes o enojados. Si las reacciones a un artículo se dividen, Facebook puede crear subcategorías como "gracioso y conmovedor" y "conmovedor y sorprendente". Puede rastrear qué usuarios reaccionan más con enojo o risa y luego predecir a qué tipo de contenido responderán. en el futuro. Facebook puede aislar a las personas particularmente malhumoradas y reducir su exposición a otros usuarios para que no arrastren a la población de Facebook. Y Facebook entrena algoritmos para hacer conjeturas sobre artículos que aún no tienen reacciones. Más significativamente, a pesar de que estas seis reacciones en particular no son un conjunto predeterminado y universal, las opciones de Facebook las reforzarán como un conjunto predeterminado, haciendo queMás universal a través de un bucle de retroalimentación. Cuanto más clasifiquemos nuestras reacciones según ese conjunto de seis, más condicionados estaremos para medir nuestras emociones en esos términos.
Los seis predeterminados suavizan las variaciones que se observaron cuando Facebook estaba realizando pruebas con un conjunto mucho mayor de emociones, todas diseñadas por Matt Jones de Disney-Pixar. La lista completa incluía todo, desde admiración y afirmación hasta ira, rabia y terror. Una clasificación simple ganó. Es más fácil de usar y más universal, a expensas de la variación cultural y personal. Además, para escuchar investigador Dacher Keltner dilo a Radiolab ‘s Andrew Zolli , a expensas de la felicidad:
Los países que expresaron la mayor "felicidad" no eran en realidad los más felices en la vida real. En cambio, fueron los países los que utilizaron la mayor variedadde calcomanías que obtuvieron mejores resultados en diversas medidas de salud social, bienestar e incluso longevidad. "No se trata de ser el más feliz", me dijo Keltner, "se trata de ser el más diverso emocionalmente".
Si el conjunto restringido de seis reacciones tiene el efecto de restringir la diversidad emocional, los medios sociales y las empresas de publicidad consideran este compromiso como el costo necesario para recopilar mejores datos sobre los usuarios. El lenguaje emocional restringido empleado por Facebook es un lenguaje que una computadora puede entender y manipular a escala. El lenguaje simplificado de un conjunto central de reacciones emocionales une la brecha computacional-humana, más exitosamente que las clasificaciones ad hoc demasiado complicadas del DSM . En cambio, estos conjuntos de reacciones recuerdan las taxonomías populares más simples de Myers-Briggs, OCEAN y HEXACO, que también descomponen los fenómenos complejos en un puñado de ejes. Las reacciones de Facebook incluso se aproximan al mapa de los Cinco Grandes:
Como: Adecuación 
Amor: Extroversión 
Guau: Apertura 
Triste: Neuroticismo 
Enojado: Conciencia
El extraño es "jaja" porque, como siempre, la risa elude una clasificación fácil a pesar de ser la expresión más universal y no negociable. Sin embargo, para los cinco restantes, hay un inevitable aplanamiento de las diferencias culturales. A pesar de la investigación empírica de Facebook para generalizar sus seis, es poco probable que la compañía esté capturando los mismos sentimientos en todas las culturas; más bien, encontró sentimientos que fueron reconocidospor múltiples culturas. Si los mineros de datos y los perfiladores de usuarios se salen con la suya, pronto estaremos encantados, sorprendiéndonos, entristeciéndonos y enfadándonos en la cárcel.
El lenguaje de las reacciones es un vocabulario primitivo de la emoción, mucho más simple que nuestros lenguajes humanos. Es mucho más adecuado para computadoras y análisis computacional. Cuando introduje los emoticones gráficos en el cliente de Messenger en 1999, no preví nada de esto. Alrededor de 2015, comencé a notar un cambio en mi muro de Facebook. Hubo menos discusión sucediendo. La gente que conocía estaba mucho más contenta de responder a las publicaciones con monosílabos como "sí" o "ugh", o con emoji simple o las seis reacciones de Facebook. Me sorprendí a mí mismo contribuyendo así, para mi consternación.
Regresé y revisé las publicaciones de 2009 y 2010. Había escrito oraciones completas, argumentos, con varios párrafos. El cambio fue obvio y drástico. La diversidad, los matices y la ambigüedad habían disminuido. Si las pasiones eran fervientes y no estaba de acuerdo con el coro de "sí" o "ughs", era mucho más probable que la multitud se abalanzara sobre mí; Lo mismo sucedió con cualquier otro disidente. ¿Qué ha pasado? Estos eran mis amigos. Pero ya no parecían las mismas personas. Habíamos sido estandarizados. Todos estábamos hablando un idioma diferente ahora. Era el lenguaje de Facebook - de las computadoras

Pensando fuera de la caja negra


Lo que los algoritmos no pueden ver puede ser lo más humano de nosotros -9 de enero.Ir al perfil de Douglas Rushkoff

Los algoritmos nos empujan a convertirnos en caricaturas de nosotros mismos. No se limitan a predecir nuestro comportamiento; lo moldean.

Se siente como que finalmente hemos alcanzado el "pico de Facebook".
Gracias en parte a las recientes revelaciones sobre cómo la compañía dio acceso a datos de usuario y mensajes privados a Netflix, Spotify y otros, así como a la campaña de trucos sucios para difamar al crítico de Facebook George Soros, la gente se está dando cuenta de que la plataforma no lo hace. Simplemente lastimar a la sociedad como efecto secundario. Facebook es un actor intencionalmente malo. Dicho esto, tal vez haya algo que ganar o aprender de la red social antes de que desaparezca.
Puede que no tengamos mucho tiempo. Los productos de Facebook se han vuelto demasiado destructivos para que casi cualquiera los justifique. Una década de artículos, documentales y planes de estudio escolares dedicados a explicar a los usuarios que no son clientes de Facebook, sino su producto, combinado con la evidencia de su memética armada y la sensación de que los algoritmos se han dirigido de forma activa, finalmente ha pasado factura: usa Facebook cuando es absolutamente necesario, pero rara vez porque lo desea. Y ahora, con toda la desesperación de una compañía de cigarrillos que niega que su producto sea adictivo, Facebook ha revelado qué tan bajo irá culpando a los espías rusos por usar la plataforma como diseñada o maltratada al filántropo judío George Soros porque, bueno, es fácil Objetivo y una distracción infalible.
Claro, Facebook aún puede lanzar un Hail Mary audaz, como cuando un AOL en declive se fue y compró Time Warner, pero incluso la compra de un Netflix o Disney solo retardaría temporalmente el sangrado. La marca corporativa está rodada porque Facebook se ha convertido en la cara de la mala conducta algorítmica. Es el niño del cartel de cómo la tecnología puede volverse contra la agencia humana. La compañía emplea finanzas de comportamiento, invasión de la privacidad y aprendizaje automático para manipular a los usuarios a la manera de las máquinas tragamonedas de Las Vegas, y luego afirma inocencia o ignorancia cuando se revela el impacto social de estas maquinaciones.
Pero ahora que Facebook parece estar destinado a la irrelevancia, me pregunto si puede haber un uso positivo para la plataforma después de todo. No, no para hacer amigos o comunicarse con personas, de todos modos ninguno de los dos fue el punto fuerte de Facebook. El verdadero valor que podemos obtener de Facebook proviene de la interacción directa y deliberada con sus interiores oscuros: los algoritmos mismos.
Los esfuerzos torpes de Facebook para reflejarnos de nuevo a nosotros mismos ofrecen un vistazo a las cajas negras que cada vez dominan más nuestra sociedad.
Los algoritmos de Facebook nos entienden solo a través de la lente del capitalismo. Quieren saber solo las cosas sobre nosotros que pueden ser monetizadas.
El aspecto más agravante de Facebook es también su aspecto más intrigante: la forma en que intenta predecir nuestras necesidades y deseos. En la superficie, es simple: la plataforma utiliza lo que sabe sobre nosotros a partir de nuestros clics y me gusta, así como las acciones compartidas y las opciones de amigos que permiten a los profesionales de marketing publicar anuncios a los que es probable que respondamos. A veces, los datos son analizados por el propio Facebook, y a veces son analizados por los clientes de Facebook, quienes pueden combinar la información que obtienen sobre nosotros en Facebook con los datos que obtienen de las muchas otras herramientas de vigilancia de la web. Así es como el tema de un hilo de correo electrónico o búsqueda en la web puede terminar siguiéndonos.como anuncios Gracias al intercambio de datos entre empresas, las cookies que rastrean nuestra actividad web y los algoritmos que leen nuestras publicaciones públicas, la mayoría de Internet funciona de esta manera. Al reenviar un mensaje crítico sobre un candidato político progresista, puede obtener anuncios dirigidos o artículos que condenan el control de armas, por ejemplo.
No sé qué me parece más desconcertante: cuando los anuncios y las recomendaciones que acechan todos mis movimientos en línea tienen un entendimiento demasiado extraño de quién soy, o cuando me devuelven una foto de mí mismo con la que no me relaciono. . Como cualquier persona, me molesta cuando parece que la conversación que acabo de tener en mi teléfono celular sobre un problema médico privado parece haber informado el nuevo anuncio que me está persiguiendo en la web. Lo más probable es que los algoritmos me diagnosticaron según los hábitos de navegación, la edad y otros metadatos.
Pero, ¿qué pasa cuando los algoritmos comienzan a enviarme anuncios y artículos con más puntos de vista que los que tengo? Las listas de actos "traidores" de Trump, las formas en que Rusia está espiando mi hogar o cómo detener a los invasores inmigrantes. ¿Qué tal cuando parecen conocer mis peores temores y luego jugar con ellos y exagerarlos para que responda? En otras palabras, clickbait, personalizado a mi perfil psicológico, según lo determinado principalmente por un análisis de mi comportamiento en línea. Cualquiera que haya seguido el motor de recomendación en YouTube sabe que después de entregar uno o dos videos inocuos, la señal "Próxima" ofrece contenido cada vez más extremo. Los algoritmos nos empujan a convertirnos en caricaturas de nosotros mismos. No se limitan a predecir nuestro comportamiento; lo moldean.
Entonces, si bien las plataformas como Facebook, YouTube o Twitter pueden ser terribles fuentes de noticias e información, la transparencia de sus manipulaciones y las de sus clientes comerciales nos ofrece una ventana a la manera en que el entorno de los medios digitales se reconfigura implacablemente, y, por supuesto, extensión, el mundo que controla, basado en sus juicios estrechos y manipulaciones agresivas. Todo lo que aparece es, de una manera u otra, un reflejo de nuestras acciones anteriores, tal como se procesan por los algoritmos y se ponen al servicio de los intereses corporativos. Es un ecosistema completo de noticias, marketing, publicidad y propaganda, atado a algoritmos, todos compartiendo información entre nosotros sobre quiénes somos, cómo pensamos, a qué respondemos y qué ignoramos.
Esos algoritmos, como estamos aprendiendo ahora, determinan mucho más de lo que veremos los anuncios, los precios de nuestros boletos de avión o las teorías de conspiración que se abren paso en nuestras noticias. Se toman en cuenta las decisiones sobre nuestros préstamos bancarios e hipotecas , nuestras visas y exámenes de aeropuerto , nuestras solicitudes de empleo , las determinaciones de libertad condicional , la reputación legal o incluso nuestra capacidad para conseguir un concierto de cuidado de niños . Las formas en que estos algoritmos evalúan nuestra idoneidad son, por supuesto, patentadas y segregadas en tecnologías de caja negra. Pero, como numerosos investigadores han determinado, esas cajas negras están llenas de los mismos prejuicios que han estado reforzando el sesgo racial y otras formas de opresión todo el tiempo.
En solo un ejemplo, los jueces ahora usan una herramienta algorítmica llamada COMPAS para determinar las sentencias de los delincuentes convictos. Cuanto mayor sea la expectativa de que alguien regrese a prisión, más larga será la sentencia. Pero al calcular el puntaje de reincidencia de un delincuente condenado , COMPAS no evalúa realmente la probabilidad de que una persona cometa un delito, sino simplemente su probabilidad de ser atrapado. En otras palabras, el algoritmo inevitablemente amplifica el sesgo institucional de la policía, que es más probable que arresten a los negros que a los blancos por los mismos delitos. El enfoque no solo fomenta la injusticia racial, sino que también socava el supuesto propósito de las instalaciones correccionales en primer lugar. Y eso es sólo en los Estados Unidos. En China y otros estados más represivos, la puntuación de las redes sociales castiga o recompensa a las personas basado no solo en lo que hacen o dicen, sino también en lo que hacen o dicen sus conexiones en línea.
Para empeorar las cosas, todas estas decisiones se basan en los resultados de las tecnologías patentadas. Si hay una ventaja en los esfuerzos torpes de Facebook para reflejarnos de nuevo a nosotros mismos, es que ayudan a exponer este proceso por lo demás opaco. Son un vistazo al tipo de cajas negras que cada vez dominan más nuestra sociedad. Y por más incómodo que nos sintamos al mirar un algoritmo en la cara, los que están en secreto son aún más dañinos. Al hacer más visibles las maquinaciones de los algoritmos, las ofertas de Facebook por nuestra atención revelan la lógica defectuosa, la especulación perniciosa y los prejuicios integrados de un orden social, legal y político determinado algorítmicamente. Facebook se ha convertido en un caso de estudio escalofriante por el que los algoritmos nunca deberían aplicarse de esta manera, al menos no en este momento de nuestro desarrollo tecnológico y social. Todo lo que hacen es camuflar los prejuicios institucionales en un manto de tecnosolucionismo.
Y hay que enfatizar que los algoritmos de Facebook no son neutrales; Nos entienden solo a través de la lente del capitalismo. Quieren saber solo las cosas sobre nosotros que pueden ser monetizadas. Toda la plataforma se basa en esa comprensión fundamental de la personalidad humana tal como se define por el consumo egoísta. Así fue como ayudó a reducir el voto a una elección del consumidor.
Si realmente desea una Internet neutral, comience utilizando un navegador anónimo , desactive todas las cookies, busque sin perfil y oculte su dirección IP. Otra respuesta puede ser a flummox los algoritmos por completo. He intentado alterar mi comportamiento para ver si la plataforma me ofrecería contenido diferente. Pero no importa lo bien que me resista a hacer clic en historias sensacionalistas, los algoritmos no parecen aprender a querer ver una imagen precisa del mundo. Están comprometidos a encontrar las "hazañas" de mi personalidad y provocar una reacción impulsiva o inconsciente. Estaría mejor haciendo clic en todo al azar, excepto que probablemente haya una categoría para el tipo de persona que hace eso y una manera práctica de monetizar el gesto.
Un antiguo alumno mío ayudó a desarrollar una extensión de navegador llamada Ad Nauseam que no solo bloquea los anuncios web, sino que también sigue adelante y hace clic en cada anuncio bloqueado en segundo plano. El seguimiento de usuarios se vuelve inútil, porque los algoritmos solo pueden concluir que estás interesado en todo. Es el tipo de estrategia recomendada por los autores-activistas detrás del libro Ofuscación , en el que argumentan que la mejor manera de combatir la vigilancia digital es camuflar, rechazar o incluso sabotear los algoritmos. Estoy a favor de eso.
Pero tan distorsionado como puede ser en su forma actual, Facebook sigue siendo una especie de espejo. E incluso si no nos representa con precisión, especialmente si no nos representa con precisión, Facebook nos ofrece una oportunidad excepcional para explorar la diferencia entre lo que los algoritmos suponen sobre nosotros y quiénes somos realmente. Los aspectos de nosotros mismos que no pueden categorizar de manera significativa, los lugares donde fallan, representan algunas de nuestras cualidades más importantes como seres humanos simplemente en virtud del hecho de que los algoritmos aún no pueden cuantificarlos. Quizás la mejor manera de saber qué aspectos de nuestra humanidad no son computacionales es prestar más atención a los límites de los algoritmos en uso a nuestro alrededor.
¿Qué faltan en el comportamiento, la sociedad y la justicia los algoritmos utilizados por los jueces para determinar las penas de prisión? ¿Qué extrañan los algoritmos económicos sobre la prosperidad humana? ¿Qué extrañan los algoritmos médicos sobre la vitalidad humana? ¿Qué extrañan los algoritmos de las redes sociales sobre lo que realmente nos conecta unos con otros?
Incluso si rechazamos las soluciones algorítmicas a los problemas del mundo, al observar cómo fallan, podemos llegar a una mejor comprensión de cómo los humanos podemos tener éxito. Por esto, irónicamente, tenemos que agradecer a Facebook.
La brecha entre quiénes somos y quiénes son los algoritmos de la plataforma dice que podemos representar el pequeño misterio humano que nos queda. Debemos apreciarlo y cultivarlo en nosotros mismos y en todos los que conocemos. Entonces tal vez podamos finalmente cerrar sesión y volver a aprender cómo ser social sin medios.