miércoles, 10 de julio de 2019

3 mitos sobre Inteligencia Artificial

By 10 enero, 2019

¿Nos dominarán los robots? ¿Nos relegarán al olvido y nos llevarán al desempleo? estas, quizá, son algunas de las preguntas más recurrentes que te rondan la cabeza, ¿verdad?, si has escuchado esto frecuentemente ¡Debes seguir leyéndonos!
Antes que nada, olvida todo lo que creías saber sobre Inteligencia Artificial, ni las películas ni los libros de ciencia ficción están cerca de explicarte de manera acertada lo que en realidad significa. Mucho se ha hablado de la Inteligencia Artificial y sus repercusiones a futuro, ten en cuenta que siempre le tememos a lo que no conocemos, si hablamos de tecnología, solemos desconfiar aún más ya que la confianza de las generaciones hacia los adelantos tecnológicos depende de su interacción con ella. ¡Recuerda! ¡Los grandes cambios traerán consigo grandes beneficios!
Antes de nombrar los mitos más conocidos y populares sobre la Inteligencia Artificial y despejar tus miedos sobre el futuro que nos deparan los robots que “dominarán el mundo”, debes tener un poco más claro el concepto: Inteligencia Artificial.
La Inteligencia Artificial intenta simular los procesos o las capacidades intelectuales de los humanos, en otras palabras, la Inteligencia Artificial está sujeta a realizar tareas como entender, aprender, realizar y planificar; el núcleo o cerebro de la Inteligencia Artificial depende del aprendizaje automático, que está diseñado para no solo hacer nuestro trabajo más fácil, si no para depender de la programación humana para funcionar, el concepto de “las máquinas piensan como seres humanos”, es posible solo si los seres humanos las programan.
¿Ya puedes respirar? ¡Tranquilo! el fin del mundo será pospuesto por muchas décadas, al menos, por medio de la Inteligencia Artificial nuestro mundo no será destruido. Este artículo está justamente hecho para mostrarte lo que no hará la inteligencia artificial, en nuestra vida.

1. ¿Humanos desempleados?

¿La Inteligencia artificial acabará con los trabajos menos cualificados? ¿Nos dejará desempleados? Constantemente se dice que los humanos seremos relegados al desempleo y al olvido, es cierto que existen empleos que son absolutamente operativos y en muchas ocasiones, tan sencillos que se convierten en tareas mecánicas y dispendiosas para las personas que los desempeñan.
Tarde o temprano la Inteligencia Artificial tomará estas labores para hacerlas de manera rápida, ágil y concreta, de esta manera, los procesos se verán beneficiados y optimizados positivamente para hacer más efectivo todo dentro de las compañías; dichos puestos sí desaparecerán y será pronto, pero ¡tranquilo! este cambio dará lugar a empleos más enfocados y complejos que tendrán acciones de valor que solo podrá dar un ser humano y nunca una máquina. La misma Inteligencia Artificial a la que tanto tememos, generará más posibilidades de trabajo y llevará nuestras habilidades a espacios mucho más especializados donde no realicemos tareas repetitivas y en cambio podamos utilizar nuestro intelecto para trabajos de mayor valor.

2. Hasta la vista humanos:

Uno de los mitos más comunes sobre la Inteligencia Artificial es pensar que tomará conciencia propia y dominará el mundo sometiéndonos a una guerra entre humanos versus máquinas que durará décadas.
Gran parte de este mito se lo debemos a Hollywood y a la creación de piezas cinematográficas de ciencia ficción que nos han llevado a pensar que este futuro será posible y no será lejano. Bueno, pues en los años 70s y 80s aún se pensaba que para el año 2000 colonizaríamos Marte, que volveríamos a la luna y que tendríamos robots médicos que curarían enfermedades, hoy, ninguna de esas predicciones fueron acertadas ni se materializaron, a pesar de que nuestros avances tecnológicos son notorios y van en crecimiento, la Inteligencia Artificial está creada para realizar labores programadas y previamente pensadas por seres humanos, en este momento ni siquiera existe para cumplir funciones motoras.

3. La Inteligencia Artificial hace de todo:

Que la Inteligencia Artificial realice cualquier tarea no será tan sencillo, los software están en una base o un proceso bastante inicial donde se han logrado avances pero no cosas definitivas. Es obvio que la Inteligencia Artificial abre muchas oportunidades y que sin duda alguna será revolucionaria, pero siempre hay que tener en cuenta que no es independiente ni piensa por sí sola, por ende, no es una “solución mágica a todo”, de ser así ya la habríamos programado para solucionarnos la vida. ¿No?
Actualmente, aunque de manera prematura y un tanto básica, la Inteligencia Artificial juega una labor primordial en nuestra vida diaria, las múltiples ventajas y cambios que trajo consigo principalmente en ámbitos empresariales han sido sumamente positivos para la modernización, pero también, para la dinamización de los procesos; enviar un e-mail para solicitar el restablecimiento de tu cuenta, traducir un texto al idioma que necesites, solucionar el requerimiento de algún usuario con base a una duda no solo agiliza, también nos deslinda de actividades que solían ocupar gran parte de nuestro valioso tiempo, la Inteligencia Artificial a futuro seguirá siendo un aliado para las industrias y organizaciones que están en creciente cambio generando transformaciones y augurando decisiones acertadas y dinamización de sus labores cotidianas.
#IA #InteligenciaArtificial #Datos #DecisionesInteligentes #InteligenciaAumentada

viernes, 5 de julio de 2019

Hacia una Europa justa, impulsada por la IA

Telefónica-Richard Benjamins


Estamos inmersos en un momento muy emocionante para la estrategia tecnológica europea. Aprovechando el impresionante crecimiento que la Inteligencia Artificial (IA) está experimentando en el mundo, Europa está preparando varias iniciativas estratégicas para instalarse con fuerza en el mapa global de la IA. En este post, repasaremos estas iniciativas y veremos por qué son importantes y cómo encajan (o deberían encajar).
Estas cuatro iniciativas contribuirán sin duda a reforzar la competitividad de Europa en el campo de la IA y de los datos. La IA se alimenta de datos, necesarios para el entrenamiento de los algoritmos.  Además, al disponer de más datos y basarse en ellos, la toma de decisiones por parte de los gobiernos será mejor y más rápida. Estados Unidos y China tienen mucha presencia en el ámbito de los datos B2C, pero Europa tiene una oportunidad en el del B2B.
Las Recomendaciones de Políticas e Inversiones en materia de IA estimularán el desarrollo de esta en Europa mediante i) el fomento de la implantación de la IA en el sector privado y ii) en el sector público; iii) el apoyo a la investigación a escala mundial; iv) la creación de una infraestructura europea de datos; v) competencias y educación; vi) gobierno y regulaciones; y vii) financiación e inversiones.
El objetivo de las Directrices éticas para una IA de confianza es asegurar que el desarrollo de la IA y el big data se enmarca dentro de unos límites legales, éticos y seguros, que estén al servicio de la humanidad. También el 26 de junio, la CE puso en marcha un proyecto piloto para comprobar las preguntas concretas de evaluación incluidas en las Directrices mediante dos cuestionarios, uno para desarrolladores e instaladores y otro para otras partes interesadas. El proyecto piloto finaliza el 1 de diciembre de 2019.
La Directiva sobre Datos Abiertos e Información del Sector Público estimulará el uso de datos abiertos publicados a través de interfaces de programación de aplicaciones (API). También elaborará una lista de grupos de datos públicos de gran valor con un gran potencial comercial que estarán disponibles de forma libre y abierta en toda la UE a través de APIs.
La misión del Grupo de Expertos B2G es encontrar maneras de aumentar los datos privados que se comparten en pro del interés general, ya sea en decisiones gubernamentales, estadísticas oficiales, catástrofes humanitarias, etc. En la actualidad, este tipo de intercambio se produce a pequeña escala y, a menudo solo en entornos piloto; hay pocos sistemas en producción. El reto es hacer crecer esas actividades, ya que actualmente el interés general no está sacándole todo el partido posible a las oportunidades que brindan los datos y la Inteligencia Artificial.

Para hablar de estas últimas incorporaciones (las Recomendaciones de Políticas e Inversiones en materia de IA y el proyecto piloto para evaluar su fiabilidad), acogemos con especial satisfacción las recomendaciones relacionadas con el fomento de la adopción de la IA en los sectores público y privado; la creación de una infraestructura de datos europea; el énfasis en el uso responsable de la IA y en las competencias y la educación.
Promover la Inteligencia Artificial en los sectores público y privado
En la actualidad, las pymes no usan tanto la IA, a diferencia de las grandes empresas. Sin embargo, la gran mayoría de los europeos trabaja en pymes. Por ello, es fundamental aumentar la implantación de la IA en las empresas pequeñas. También es importante incrementar la presencia de la IA en el sector público: «La implantación de sistemas de IA puede ayudar a que los gobiernos tomen mejores decisiones políticas, basadas en los datos, a prestar mejores servicios a las personas, grupos y organizaciones mediante la reducción de costes internos, aumentando la eficacia de los programas y mejorando la calidad». Es fundamental formar asociaciones (público-privadas) en áreas clave para aprovechar al máximo la tecnología. La formación y el asesoramiento en IA son de esenciales para que esto suceda.

Hacia una infraestructura europea de datos
La mayoría de las IA que tienen éxito en la actualidad se basan en un aprendizaje supervisado de la máquina, lo que requiere una gran cantidad de datos para el entrenamiento de los algoritmos. Sin embargo, el estado actual de los datos B2B en Europa está fragmentado por organizaciones, sectores y países. Aunque habrá que superar muchos obstáculos, es importante trabajar en una infraestructura europea de datos como activo diferencial fundamental para Europa. No se trata solo de una infraestructura de hardware y conectividad, sino, sobre todo, de una infraestructura de datos. Debemos aunar los datos de organizaciones públicas y privadas, de todos los sectores y países europeos.  La Directiva sobre Datos Abiertos permite que el sector público trabaje en este sentido, y el grupo de expertos sobre intercambio de datos B2G tiene que encontrar fórmulas para ampliar la puesta en común de datos privados, teniendo en cuenta tanto los intereses públicos como los privados. Las asociaciones público-privadas relacionadas con áreas específicas son probablemente la clave para empezar a construir dicha infraestructura de datos.

Uso responsable de la IA
Aunque la IA y el big data ofrecen muchas oportunidades, también existen riesgos, que para una empresa están relacionados mayoritariamente con las consecuencias negativas no deseadas de la aplicación de la tecnología. Por lo tanto, estamos encantados de participar en el proyecto piloto para evaluar la fiabilidad de la IA y aportar nuestra experiencia en la implementación de la «IA responsable desde el diseño». La formación, la educación y la concienciación son de suma importancia, y hemos desarrollado un curso en línea para formar a nuestros empleados en temas como la IA justa, explicable, centrada en el ser humano y que salvaguarde la privacidad y la seguridad.
Sin embargo, antes de que podamos cosechar los beneficios de esas importantes iniciativas, todavía quedan varios obstáculos por superar. A este respecto, quiero mencionar solo dos de los muchos, pero menos debatidos problemas, a los que se enfrenta Europa para la creación de una Infraestructura Europea de Datos. La privacidad es, por supuesto, una cuestión muy importante, pero que ya ha sido ampliamente debatida por los expertos.
  • Un problema no resuelto es cómo incentivar a las empresas para que compartan sus datos privados a escala suficiente para crear esta infraestructura de datos. Aparte de esta escala, también el tiempo es importante, porque Europa no puede esperar 10 años. Uno de los principales instrumentos sería la creación de ecosistemas y modelos de negocio sostenibles en torno a ciertos nichos de mercado como la salud, la fabricación, la automoción... y definir modelos claros de beneficio mutuo para los sectores público y privado. Y, en ciertos casos, se puede imponer la obligación de dicho intercambio.  El grupo de expertos B2G presentará sus recomendaciones a finales de 2019.
  • Otro problema está relacionado con la forma en la que hacer interoperables los conjuntos de datos, es decir, cómo combinar conjuntos de datos procedentes de diferentes organizaciones, tanto del sector público como del privado. Es necesaria una estandarización. El valor pleno de los datos solo puede alcanzarse con la combinación de diferentes conjuntos de datos. Mientras que el intercambio de datos privados todavía no ha despegado y estamos «a tiempo» para definir un estándar, los Datos Abiertos abundan, pero están fragmentados en diferentes niveles gubernamentales (UE, Estados miembros, institutos de estadística, regiones, ciudades), y no existe un estándar sobre cómo publicarlos. La Directiva sobre Datos Abiertos debería desempeñar un papel importante en este sentido.
En definitiva, la IA ofrece muchas oportunidades, pero también hay afrontar aún muchos desafíos para que Europa pueda llegar a ser realmente competitiva en este ámbito. Telefónica espera seguir colaborando con la Comisión Europea y otros agentes clave para fomentar la competitividad de una IA de confianza.

martes, 2 de julio de 2019

Cómo las generaciones anteriores influyen en nuestras decisiones

Cómo las generaciones anteriores influyen en nuestras decisiones. Masla hernandez


Los investigadores han llegado a saber mucho sobre cómo las personas deciden comportarse con las generaciones futuras y por qué. En los últimos 18 años, los estudios han identificado las barreras psicológicas que definen los dilemas intergeneracionales , como cuando una generación actual debe renunciar a los beneficios para actuar en nombre de las generaciones futuras. Hemos descubierto que las preocupaciones de administración y legado , por ejemplo, pueden guiar la manera en que los ciudadanos expresan la generosidad hacia las generaciones futuras.

Lo que no sabemos lo suficiente es cómo las generaciones anteriores influyen en nuestras decisiones actuales.

Aquí es por qué importa: muchas historias de nuestros antepasados ​​fueron diseñadas para evitar que los nuevos oyentes repitan los errores del pasado. Pero en una era en la que lo más cercano a los cuentos populares son las charlas de TED, ¿corren el riesgo de que las organizaciones pierdan el contacto con las lecciones del pasado? En una época de grandes cambios tecnológicos, que exige reflexión y una cultura corporativa clara, así como una propulsión creativa, esta es una pregunta vital.

viernes, 15 de febrero de 2019

Los 'millennials' ya no llevan el dinero en el bolsillo, lo guardan en el móvil

BBVA-Educación Financiera, 15-02-2019


Los ‘millennials’ siguen demostrando cada día que son una generación influyente. Sus hábitos de consumo, su forma de utilizar la tecnología y su manera de concebir los servicios bancarios, están moldeando la sociedad hacia un futuro sin dinero en efectivo. Ocho de cada diez hace todas sus compras y el pago de sus facturas a través del teléfono móvil. 

En 2025, los ‘millennials’ serán la generación con mayores ganancias de la historia, lo que cambiará la industria bancaria. Esta es una de las conclusiones de un artículo publicado en Nasdaq por la plataforma digital de pagos Due.com, que anticipa que la influencia creciente de la generación de los nacidos en la década de los 80 va a revolucionar el sector económico, dando sus primeros pasos hacia una sociedad sin dinero en efectivo. Por eso, es importante para el conjunto de la sociedad futura que los jóvenes sean financieramente alfabetizados y que puedan enfrentar decisiones financieras complejas que podrían afectar al resto de sus vidas.
La revolución ya ha empezado. Las opciones financieras para las generaciones más jóvenes son mucho más desafiantes que lo fueron para las generaciones pasadas.  Los servicios y productos financieros se han vuelto más complejos y más ámpliamente accesibles debido a la globalización y las tecnologías digitales. Según datos de Due.com, en Estados Unidos, uno de cada cuatro ‘millennials’ lleva menos de 5 dólares en efectivo y ocho de cada diez hace todas sus compras y el pago de sus facturas a través del teléfono móvil. ¿Por qué? Una de las principales razones es la seguridad. El dinero en efectivo puede perderse o ser robado, pero las carteras digitales, no. Los sistemas de seguridad son cada vez más sofisticados, lo que hace que la información sea casi impenetrable.

Un fenómeno global

Los ‘millennials’ viven pegados a sus móviles. Los utilizan para informarse, mantenerse en contacto, transportarse… controlar sus finanzas a través de este dispositivo es algo lógico para ellos. Por eso, el fenómeno se está haciendo global. Según datos recogidos por BBVA Data & Analytics a partir del uso de las tarjetas BBVA, los menores de 35 años realizan, en España, un 80% de sus transacciones con tarjeta, mientras que solo el 20% se corresponde a retiradas de efectivo en cajeros. En México, las carteras digitales están viviendo un momento de crecimiento. Un buen ejemplo es el avance de Samsung Pay, que ha celebrado su primer aniversario en el país con más de 430.000 usuarios registrados y buenas perspectivas de crecimiento debido, según la propia compañía, al estilo de vida siempre “conectado” de los ‘millennials’.
El mercado ha reaccionado y las opciones para llevar una vida libre de dinero en efectivo se renuevan con propuestas como las criptomonedas o los sistemas de reconocimiento facial. Pero los ‘millennials’ le piden más a la industria bancaria. La generación del milenio, según el estudio de Accenture, ‘Millennials and Money’, está solicitando servicios que les faciliten mover su dinero como:
  • Robo-advisors: algoritmos que proveen servicios financieros y asesoría de forma automatizada.
  • Plataformas digitales de inversión con acceso directo a un asesor financiero.
  • Gamificación enfocada en el aprendizaje para mantenerse más comprometidos con sus finanzas.
  • Plataformas móviles que les conecten directamente con sus asesores.
  • Incorporación de las redes sociales y de métricas que indiquen el sentimiento de la comunidad para ayudarles en las recomendaciones financieras.
  • ‘Software’ que permita el seguimiento de transacciones, pagos y otros datos financieros en tiempo real para brindar las mejores recomendaciones.

Ayuda para el ahorro

Sacar el máximo partido a las finanzas no es suficiente para estos jóvenes. Alrededor del 67% de los ‘millennials’, según Due.com, desea que sus carteras digitales estén equipadas de servicios con los que puedan controlar sus finanzas, hacer un seguimiento de sus gastos o realizar un presupuesto.
Las operaciones digitales les resultan más fáciles de controlar que las que se realizan en efectivo: “Cuando tengo el dinero en el monedero, pienso, ‘¡Bien! Ahora puedo gastármelo en cualquier cosa, y mi plataforma digital no se enterará’”, declaraba una usuaria en un artículo de la compañía financiera Bankrate. Esta falsa percepción queda neutralizada cuando el dinero se controla a través de las nuevas tecnologías. La transformación global debe ir acompañada de un proceso de educación y capacitación financiera adecuada para que las nuevas generaciones puedan aprovechar las oportunidades que les brinda la nueva era digital.
Para ser efectivas, las herramientas financieras del futuro, con o sin efectivo por medio, deberán contar con ese componente de asesoramiento financiero que los jóvenes demandan. De esta forma, gracias a las herramientas orientadas a educar a los usuarios en el control y la planificación de sus finanzas, conseguir las metas de ahorro que cada uno se proponga será cada vez más sencillo.

martes, 15 de enero de 2019

Cómo Facebook ha aplanado la comunicación humana



Ir al perfil de david auerbach

Elnivel primitivo de comentarios de los usuarios alentados por los servicios en línea es una característica, no un error. Es mucho más fácil para una computadora dar sentido a un "me gusta" o una "⭐⭐⭐⭐⭐" que analizar el significado del texto en bruto. Las reseñas de los usuarios de Yelp son una parte necesaria de su atractivo para quienes visitan los restaurantes, pero Yelp no podría existir sin las calificaciones de estrellas, lo que permite una clasificación, filtrado y análisis histórico convenientes a lo largo del tiempo (por ejemplo, para saber si un restaurante está empeorando). ). Esto lleva a lo que llamaré ...

La primera ley de datos de internet

En cualquier contexto computacional, los datos estructurados explícitamenteflotan en la parte superior.
Los datos "explícitamente estructurados" son cualquier dato que trae consigo categorías, cuantificaciones y / o clasificaciones. Estos datos son independientes, por lo que no es necesario utilizar ningún contexto mayor. Los datos que existen en un contexto estructurado y cuantificable, ya sea el DSM, registros de crédito, Dungeons & Dragons , transacciones financieras, categorías de productos de Amazon o perfiles de Facebook, serán más útiles y más importantes para los algoritmos y para las personas y empresas que utilizan esos algoritmos, que los datos no estructurados como texto en lenguaje humano, imágenes y video.
Esta ley se ocultó en los primeros días de Internet porque había muy poca información cuantificada explícitamente. Los metadatos cuantificados explícitamente , como el gráfico de enlaces, que Google explotó de manera tan lucrativa, subrayaron que los algoritmos gravitan hacia datos cuantificados explícitamente. En otras palabras, los primeros días de internet fueron una aberración . En retrospectiva, el inicio de Internet fue el comienzono representativo de un proceso de cuantificación explícita que desde entonces comenzó con el advenimiento de las plataformas de redes sociales como Facebook, Snapchat, Instagram y Twitter, que son parte de la nueva norma. Esto también incluye a Amazon, eBay y otras compañías que tratan datos cuantificados explícitamente.
La web 2.0 no fue sobre lo social en sí. Más bien, se trataba de la clasificaciónde lo social, y más generalmente de la clasificación de la vida. Google había aspirado todo lo que podía ser sacado de los datos no estructurados. La maduración de la web exigía un contenido más explícitamente organizado que podría ser analizado más fácilmente por las computadoras. Y la mejor manera de hacer esto a escala era emplear a los usuarios para crear esos datos.
Los datos cuantificados explícitamente requieren que los datos se etiqueten y clasifiquen antes de que puedan ordenarse y ordenarse. El proyecto de archivos como la Biblioteca del Congreso no es clasificar los libros per se; está desarrollando la clasificación general que determina en qué orden deben estar los libros. Sin clasificación, sin clasificación. Incluso el aprendizaje automático se vuelve peor cuando está "sin supervisión", es decir, cuando no se le proporciona un marco de clasificación preexistente.

La segunda ley de datos de internet

Para cualquier conjunto de datos, la clasificación es más importante que lo que se clasifica.
Las conclusiones y el impacto de los análisis de datos se derivan más a menudo de las clasificaciones bajo las cuales se han recopilado los datos que de los propios datos. Cuando Facebook agrupa a las personas en alguna categoría como "bebedores de cerveza" o "entusiastas de la moda", no hay algún rasgo esencial de lo que une a las personas de ese grupo. Al igual que la receta secreta de Google, la clasificación de Facebook no tiene ningún secreto real. Es solo una amalgama de todos los factores individuales que, una vez sumados, dispararon el detector de categorías. Independientemente de lo que causó que Facebook decidiera que tenía una "afinidad étnica" afroamericana (¿eran mis registros de Sun Ra?), No es algo que claramente haga que un humano decida que tengo tal afinidad.
Lo que es importante, en cambio, es que tal categoría existe , porque dicta cómo seré tratado en el futuro. El nombre de la categoría, ya sea "afroamericano", "minoría étnica", "descendencia africana" o "negro", es más importante que el criterio para la categoría. Los criterios aprendidos de Facebook para estas categorías se superpondrían significativamente, sin embargo, la clasificación final posee un significado claramente diferente en cada caso. Pero la distinción entre criterios queda oculta. Nunca vemos los criterios, y con mucha frecuencia estos criterios son arbitrarios o totalmente erróneos. La elección de la clasificación es más importante que la forma en que se realiza la clasificación.
Los comentarios escritos sobre un artículo no le dan mucho a Facebook para continuar; es demasiado difícil derivar el sentimiento de las ambigüedades del texto escrito.
Aquí, Facebook y otros clasificadores computacionales exacerban los problemas existentes de las taxonomías provisionales. Las categorías del DSMdictaron más sobre cómo se veía una población de pacientes que las características subyacentes de cada individuo ,porque fue la categoría de recuentos la que se convirtió en la síntesis de datos. La imagen que uno tiene de la economía depende más de cómo se define el desempleo (ya se trate de personas que han dejado de buscar trabajo, trabajadores a tiempo parcial, trabajadores temporales, etc.) que de las experiencias y opiniones crudas de los ciudadanos. Y su opinión de su propia salud depende más de si su peso, dieta y estilo de vida se clasifican en cubos "saludables" o "no saludables" que en las estadísticas en sí mismas. Incluso el nombre de una categoría - "gordo" versus "sobrepeso" versus "obeso" - conlleva asociaciones que condicionan la forma en que se interpreta la clasificación.
Algunas clasificaciones son mucho más exitosas y populares que otras. La regla de oro dominante es ...

La Tercera Ley de Datos de Internet

Clasificaciones más simples tenderán a derrotar clasificaciones más elaboradas.
La simplicidad de los mecanismos de retroalimentación (me gusta, calificaciones de estrellas, etc.) es intencional. Servicios de internet puedenlidiar con ontologías complicadas cuando lo necesiten, pero con inercia técnica y de negocios, privilegiar a las más simples. Facebook esperó 10 años para agregar reacciones más allá de "me gusta" y resistió durante mucho tiempo las llamadas a un botón de "no me gusta", lo que obligó a sus usuarios a recibir anuncios de muerte y escándalos políticos. Facebook prefirió una simple métrica bimodal interesada / no interesada. Cuando Facebook finalmente decidió apaciguar a sus usuarios, agregó cinco sentimientos al original como: amor, jaja, guau, triste y enojado. No es una coincidencia que los dos sentimientos negativos estén al final: "triste" y "enojado" son más ambiguos que los otros. Si expreso una reacción positiva a algo, definitivamente estoy interesado en ello. Si algo me entristece o me enoja, es posible que aún me interese, o tal vez quiera evitarlo. Esas reacciones son menos útiles para Facebook.
Las seis reacciones de Facebook son similares a emoji, ya que permiten a los usuarios expresar emociones de forma no verbal, pero son más útiles para Facebook porque comprenden una clasificación más simple que los miles de emoji. BuzzFeed emplea un esquema similar, ligeramente más moderno, para las reacciones que permite a los usuarios publicar en artículos. El esquema de BuzzFeed está hecho a medida para la investigación de mercado: el contenido puede ser sorprendente, adorable, impactante, divertido, etc.
Bloomberg ‘s Sarah Frier explica cómo Facebook formuló sus nuevas reacciones:
Los investigadores de Facebook comenzaron el proyecto compilando las respuestas más frecuentes que la gente tenía para las publicaciones: "jaja", "LOL" y "omg tan cómico", todos entraron en la categoría de la risa, por ejemplo ... Luego resumieron esas categorías en seis respuestas comunes. lo que Facebook llama Reacciones: enojado, triste, guau, jaja, yay y amor ... Yay finalmente fue rechazado porque "no se entendió de manera universal", dice un portavoz de Facebook.
Estos sentimientos primitivos, irónicamente, permiten análisis más sofisticados de lo que permitiría un esquema más complicado, una razón importante por la que las clasificaciones más simples tienden a derrotar clasificaciones más elaboradas. Los comentarios escritos sobre un artículo no le dan mucho a Facebook para continuar; es demasiado difícil derivar el sentimiento de las ambigüedades del texto escrito, a menos que el texto sea tan simple como "LOL" o "grande". Pero una clasificación de seis veces tiene múltiples ventajas. Facebook, BuzzFeed y sus familiares buscan sentimientos universales e inequívocos. Hay poca o ninguna variación en las opciones de reacción en diferentes países, idiomas y culturas.
Los sentimientos también facilitan la comparación cuantitativa de las publicaciones. Los propios usuarios clasifican los artículos en "divertidos", "felices", "tristes", "conmovedores" e "exasperantes". Al observar las respuestas textuales, sería difícil estimar que "Canadá se atasca en el pacto comercial" y "el cantante pop". "Fuera del escenario" tiene algo en común, pero si ambos enfurecen a los usuarios lo suficiente como para hacer clic en el icono "enojado", Facebook puede detectar un punto en común. Esas clasificaciones permiten a Facebook unir los sentimientos de los usuarios con artículos clasificados de manera similar o tratar de animarlos si están tristes o enojados. Si las reacciones a un artículo se dividen, Facebook puede crear subcategorías como "gracioso y conmovedor" y "conmovedor y sorprendente". Puede rastrear qué usuarios reaccionan más con enojo o risa y luego predecir a qué tipo de contenido responderán. en el futuro. Facebook puede aislar a las personas particularmente malhumoradas y reducir su exposición a otros usuarios para que no arrastren a la población de Facebook. Y Facebook entrena algoritmos para hacer conjeturas sobre artículos que aún no tienen reacciones. Más significativamente, a pesar de que estas seis reacciones en particular no son un conjunto predeterminado y universal, las opciones de Facebook las reforzarán como un conjunto predeterminado, haciendo queMás universal a través de un bucle de retroalimentación. Cuanto más clasifiquemos nuestras reacciones según ese conjunto de seis, más condicionados estaremos para medir nuestras emociones en esos términos.
Los seis predeterminados suavizan las variaciones que se observaron cuando Facebook estaba realizando pruebas con un conjunto mucho mayor de emociones, todas diseñadas por Matt Jones de Disney-Pixar. La lista completa incluía todo, desde admiración y afirmación hasta ira, rabia y terror. Una clasificación simple ganó. Es más fácil de usar y más universal, a expensas de la variación cultural y personal. Además, para escuchar investigador Dacher Keltner dilo a Radiolab ‘s Andrew Zolli , a expensas de la felicidad:
Los países que expresaron la mayor "felicidad" no eran en realidad los más felices en la vida real. En cambio, fueron los países los que utilizaron la mayor variedadde calcomanías que obtuvieron mejores resultados en diversas medidas de salud social, bienestar e incluso longevidad. "No se trata de ser el más feliz", me dijo Keltner, "se trata de ser el más diverso emocionalmente".
Si el conjunto restringido de seis reacciones tiene el efecto de restringir la diversidad emocional, los medios sociales y las empresas de publicidad consideran este compromiso como el costo necesario para recopilar mejores datos sobre los usuarios. El lenguaje emocional restringido empleado por Facebook es un lenguaje que una computadora puede entender y manipular a escala. El lenguaje simplificado de un conjunto central de reacciones emocionales une la brecha computacional-humana, más exitosamente que las clasificaciones ad hoc demasiado complicadas del DSM . En cambio, estos conjuntos de reacciones recuerdan las taxonomías populares más simples de Myers-Briggs, OCEAN y HEXACO, que también descomponen los fenómenos complejos en un puñado de ejes. Las reacciones de Facebook incluso se aproximan al mapa de los Cinco Grandes:
Como: Adecuación 
Amor: Extroversión 
Guau: Apertura 
Triste: Neuroticismo 
Enojado: Conciencia
El extraño es "jaja" porque, como siempre, la risa elude una clasificación fácil a pesar de ser la expresión más universal y no negociable. Sin embargo, para los cinco restantes, hay un inevitable aplanamiento de las diferencias culturales. A pesar de la investigación empírica de Facebook para generalizar sus seis, es poco probable que la compañía esté capturando los mismos sentimientos en todas las culturas; más bien, encontró sentimientos que fueron reconocidospor múltiples culturas. Si los mineros de datos y los perfiladores de usuarios se salen con la suya, pronto estaremos encantados, sorprendiéndonos, entristeciéndonos y enfadándonos en la cárcel.
El lenguaje de las reacciones es un vocabulario primitivo de la emoción, mucho más simple que nuestros lenguajes humanos. Es mucho más adecuado para computadoras y análisis computacional. Cuando introduje los emoticones gráficos en el cliente de Messenger en 1999, no preví nada de esto. Alrededor de 2015, comencé a notar un cambio en mi muro de Facebook. Hubo menos discusión sucediendo. La gente que conocía estaba mucho más contenta de responder a las publicaciones con monosílabos como "sí" o "ugh", o con emoji simple o las seis reacciones de Facebook. Me sorprendí a mí mismo contribuyendo así, para mi consternación.
Regresé y revisé las publicaciones de 2009 y 2010. Había escrito oraciones completas, argumentos, con varios párrafos. El cambio fue obvio y drástico. La diversidad, los matices y la ambigüedad habían disminuido. Si las pasiones eran fervientes y no estaba de acuerdo con el coro de "sí" o "ughs", era mucho más probable que la multitud se abalanzara sobre mí; Lo mismo sucedió con cualquier otro disidente. ¿Qué ha pasado? Estos eran mis amigos. Pero ya no parecían las mismas personas. Habíamos sido estandarizados. Todos estábamos hablando un idioma diferente ahora. Era el lenguaje de Facebook - de las computadoras

Pensando fuera de la caja negra


Lo que los algoritmos no pueden ver puede ser lo más humano de nosotros -9 de enero.Ir al perfil de Douglas Rushkoff

Los algoritmos nos empujan a convertirnos en caricaturas de nosotros mismos. No se limitan a predecir nuestro comportamiento; lo moldean.

Se siente como que finalmente hemos alcanzado el "pico de Facebook".
Gracias en parte a las recientes revelaciones sobre cómo la compañía dio acceso a datos de usuario y mensajes privados a Netflix, Spotify y otros, así como a la campaña de trucos sucios para difamar al crítico de Facebook George Soros, la gente se está dando cuenta de que la plataforma no lo hace. Simplemente lastimar a la sociedad como efecto secundario. Facebook es un actor intencionalmente malo. Dicho esto, tal vez haya algo que ganar o aprender de la red social antes de que desaparezca.
Puede que no tengamos mucho tiempo. Los productos de Facebook se han vuelto demasiado destructivos para que casi cualquiera los justifique. Una década de artículos, documentales y planes de estudio escolares dedicados a explicar a los usuarios que no son clientes de Facebook, sino su producto, combinado con la evidencia de su memética armada y la sensación de que los algoritmos se han dirigido de forma activa, finalmente ha pasado factura: usa Facebook cuando es absolutamente necesario, pero rara vez porque lo desea. Y ahora, con toda la desesperación de una compañía de cigarrillos que niega que su producto sea adictivo, Facebook ha revelado qué tan bajo irá culpando a los espías rusos por usar la plataforma como diseñada o maltratada al filántropo judío George Soros porque, bueno, es fácil Objetivo y una distracción infalible.
Claro, Facebook aún puede lanzar un Hail Mary audaz, como cuando un AOL en declive se fue y compró Time Warner, pero incluso la compra de un Netflix o Disney solo retardaría temporalmente el sangrado. La marca corporativa está rodada porque Facebook se ha convertido en la cara de la mala conducta algorítmica. Es el niño del cartel de cómo la tecnología puede volverse contra la agencia humana. La compañía emplea finanzas de comportamiento, invasión de la privacidad y aprendizaje automático para manipular a los usuarios a la manera de las máquinas tragamonedas de Las Vegas, y luego afirma inocencia o ignorancia cuando se revela el impacto social de estas maquinaciones.
Pero ahora que Facebook parece estar destinado a la irrelevancia, me pregunto si puede haber un uso positivo para la plataforma después de todo. No, no para hacer amigos o comunicarse con personas, de todos modos ninguno de los dos fue el punto fuerte de Facebook. El verdadero valor que podemos obtener de Facebook proviene de la interacción directa y deliberada con sus interiores oscuros: los algoritmos mismos.
Los esfuerzos torpes de Facebook para reflejarnos de nuevo a nosotros mismos ofrecen un vistazo a las cajas negras que cada vez dominan más nuestra sociedad.
Los algoritmos de Facebook nos entienden solo a través de la lente del capitalismo. Quieren saber solo las cosas sobre nosotros que pueden ser monetizadas.
El aspecto más agravante de Facebook es también su aspecto más intrigante: la forma en que intenta predecir nuestras necesidades y deseos. En la superficie, es simple: la plataforma utiliza lo que sabe sobre nosotros a partir de nuestros clics y me gusta, así como las acciones compartidas y las opciones de amigos que permiten a los profesionales de marketing publicar anuncios a los que es probable que respondamos. A veces, los datos son analizados por el propio Facebook, y a veces son analizados por los clientes de Facebook, quienes pueden combinar la información que obtienen sobre nosotros en Facebook con los datos que obtienen de las muchas otras herramientas de vigilancia de la web. Así es como el tema de un hilo de correo electrónico o búsqueda en la web puede terminar siguiéndonos.como anuncios Gracias al intercambio de datos entre empresas, las cookies que rastrean nuestra actividad web y los algoritmos que leen nuestras publicaciones públicas, la mayoría de Internet funciona de esta manera. Al reenviar un mensaje crítico sobre un candidato político progresista, puede obtener anuncios dirigidos o artículos que condenan el control de armas, por ejemplo.
No sé qué me parece más desconcertante: cuando los anuncios y las recomendaciones que acechan todos mis movimientos en línea tienen un entendimiento demasiado extraño de quién soy, o cuando me devuelven una foto de mí mismo con la que no me relaciono. . Como cualquier persona, me molesta cuando parece que la conversación que acabo de tener en mi teléfono celular sobre un problema médico privado parece haber informado el nuevo anuncio que me está persiguiendo en la web. Lo más probable es que los algoritmos me diagnosticaron según los hábitos de navegación, la edad y otros metadatos.
Pero, ¿qué pasa cuando los algoritmos comienzan a enviarme anuncios y artículos con más puntos de vista que los que tengo? Las listas de actos "traidores" de Trump, las formas en que Rusia está espiando mi hogar o cómo detener a los invasores inmigrantes. ¿Qué tal cuando parecen conocer mis peores temores y luego jugar con ellos y exagerarlos para que responda? En otras palabras, clickbait, personalizado a mi perfil psicológico, según lo determinado principalmente por un análisis de mi comportamiento en línea. Cualquiera que haya seguido el motor de recomendación en YouTube sabe que después de entregar uno o dos videos inocuos, la señal "Próxima" ofrece contenido cada vez más extremo. Los algoritmos nos empujan a convertirnos en caricaturas de nosotros mismos. No se limitan a predecir nuestro comportamiento; lo moldean.
Entonces, si bien las plataformas como Facebook, YouTube o Twitter pueden ser terribles fuentes de noticias e información, la transparencia de sus manipulaciones y las de sus clientes comerciales nos ofrece una ventana a la manera en que el entorno de los medios digitales se reconfigura implacablemente, y, por supuesto, extensión, el mundo que controla, basado en sus juicios estrechos y manipulaciones agresivas. Todo lo que aparece es, de una manera u otra, un reflejo de nuestras acciones anteriores, tal como se procesan por los algoritmos y se ponen al servicio de los intereses corporativos. Es un ecosistema completo de noticias, marketing, publicidad y propaganda, atado a algoritmos, todos compartiendo información entre nosotros sobre quiénes somos, cómo pensamos, a qué respondemos y qué ignoramos.
Esos algoritmos, como estamos aprendiendo ahora, determinan mucho más de lo que veremos los anuncios, los precios de nuestros boletos de avión o las teorías de conspiración que se abren paso en nuestras noticias. Se toman en cuenta las decisiones sobre nuestros préstamos bancarios e hipotecas , nuestras visas y exámenes de aeropuerto , nuestras solicitudes de empleo , las determinaciones de libertad condicional , la reputación legal o incluso nuestra capacidad para conseguir un concierto de cuidado de niños . Las formas en que estos algoritmos evalúan nuestra idoneidad son, por supuesto, patentadas y segregadas en tecnologías de caja negra. Pero, como numerosos investigadores han determinado, esas cajas negras están llenas de los mismos prejuicios que han estado reforzando el sesgo racial y otras formas de opresión todo el tiempo.
En solo un ejemplo, los jueces ahora usan una herramienta algorítmica llamada COMPAS para determinar las sentencias de los delincuentes convictos. Cuanto mayor sea la expectativa de que alguien regrese a prisión, más larga será la sentencia. Pero al calcular el puntaje de reincidencia de un delincuente condenado , COMPAS no evalúa realmente la probabilidad de que una persona cometa un delito, sino simplemente su probabilidad de ser atrapado. En otras palabras, el algoritmo inevitablemente amplifica el sesgo institucional de la policía, que es más probable que arresten a los negros que a los blancos por los mismos delitos. El enfoque no solo fomenta la injusticia racial, sino que también socava el supuesto propósito de las instalaciones correccionales en primer lugar. Y eso es sólo en los Estados Unidos. En China y otros estados más represivos, la puntuación de las redes sociales castiga o recompensa a las personas basado no solo en lo que hacen o dicen, sino también en lo que hacen o dicen sus conexiones en línea.
Para empeorar las cosas, todas estas decisiones se basan en los resultados de las tecnologías patentadas. Si hay una ventaja en los esfuerzos torpes de Facebook para reflejarnos de nuevo a nosotros mismos, es que ayudan a exponer este proceso por lo demás opaco. Son un vistazo al tipo de cajas negras que cada vez dominan más nuestra sociedad. Y por más incómodo que nos sintamos al mirar un algoritmo en la cara, los que están en secreto son aún más dañinos. Al hacer más visibles las maquinaciones de los algoritmos, las ofertas de Facebook por nuestra atención revelan la lógica defectuosa, la especulación perniciosa y los prejuicios integrados de un orden social, legal y político determinado algorítmicamente. Facebook se ha convertido en un caso de estudio escalofriante por el que los algoritmos nunca deberían aplicarse de esta manera, al menos no en este momento de nuestro desarrollo tecnológico y social. Todo lo que hacen es camuflar los prejuicios institucionales en un manto de tecnosolucionismo.
Y hay que enfatizar que los algoritmos de Facebook no son neutrales; Nos entienden solo a través de la lente del capitalismo. Quieren saber solo las cosas sobre nosotros que pueden ser monetizadas. Toda la plataforma se basa en esa comprensión fundamental de la personalidad humana tal como se define por el consumo egoísta. Así fue como ayudó a reducir el voto a una elección del consumidor.
Si realmente desea una Internet neutral, comience utilizando un navegador anónimo , desactive todas las cookies, busque sin perfil y oculte su dirección IP. Otra respuesta puede ser a flummox los algoritmos por completo. He intentado alterar mi comportamiento para ver si la plataforma me ofrecería contenido diferente. Pero no importa lo bien que me resista a hacer clic en historias sensacionalistas, los algoritmos no parecen aprender a querer ver una imagen precisa del mundo. Están comprometidos a encontrar las "hazañas" de mi personalidad y provocar una reacción impulsiva o inconsciente. Estaría mejor haciendo clic en todo al azar, excepto que probablemente haya una categoría para el tipo de persona que hace eso y una manera práctica de monetizar el gesto.
Un antiguo alumno mío ayudó a desarrollar una extensión de navegador llamada Ad Nauseam que no solo bloquea los anuncios web, sino que también sigue adelante y hace clic en cada anuncio bloqueado en segundo plano. El seguimiento de usuarios se vuelve inútil, porque los algoritmos solo pueden concluir que estás interesado en todo. Es el tipo de estrategia recomendada por los autores-activistas detrás del libro Ofuscación , en el que argumentan que la mejor manera de combatir la vigilancia digital es camuflar, rechazar o incluso sabotear los algoritmos. Estoy a favor de eso.
Pero tan distorsionado como puede ser en su forma actual, Facebook sigue siendo una especie de espejo. E incluso si no nos representa con precisión, especialmente si no nos representa con precisión, Facebook nos ofrece una oportunidad excepcional para explorar la diferencia entre lo que los algoritmos suponen sobre nosotros y quiénes somos realmente. Los aspectos de nosotros mismos que no pueden categorizar de manera significativa, los lugares donde fallan, representan algunas de nuestras cualidades más importantes como seres humanos simplemente en virtud del hecho de que los algoritmos aún no pueden cuantificarlos. Quizás la mejor manera de saber qué aspectos de nuestra humanidad no son computacionales es prestar más atención a los límites de los algoritmos en uso a nuestro alrededor.
¿Qué faltan en el comportamiento, la sociedad y la justicia los algoritmos utilizados por los jueces para determinar las penas de prisión? ¿Qué extrañan los algoritmos económicos sobre la prosperidad humana? ¿Qué extrañan los algoritmos médicos sobre la vitalidad humana? ¿Qué extrañan los algoritmos de las redes sociales sobre lo que realmente nos conecta unos con otros?
Incluso si rechazamos las soluciones algorítmicas a los problemas del mundo, al observar cómo fallan, podemos llegar a una mejor comprensión de cómo los humanos podemos tener éxito. Por esto, irónicamente, tenemos que agradecer a Facebook.
La brecha entre quiénes somos y quiénes son los algoritmos de la plataforma dice que podemos representar el pequeño misterio humano que nos queda. Debemos apreciarlo y cultivarlo en nosotros mismos y en todos los que conocemos. Entonces tal vez podamos finalmente cerrar sesión y volver a aprender cómo ser social sin medios.