viernes, 17 de noviembre de 2023

MIT- La IA generativa es solo una fase, pronto llegará la IA interactiva

 "Este es un momento trascendental en la historia de la tecnología", Mustafa Suleyman

  • por Will Douglas Heaven
  • -
  • 10 Noviembre, 2023
  • Mustafa Suleyman, cofundador de DeepMind, quiere construir un chatbot que haga mucho más que chatear. En una conversación reciente, me comentó que la IA generativa es solo una fase más. Pronto llegará la IA interactiva: robots capaces de realizar las tareas que se les encomienden recurriendo a otro software y a otras personas. El emprendedor también pide una regulación estricta, y no cree que sea difícil de conseguir.

    Suleyman no es el único que habla de un futuro lleno de software cada vez más autónomo. Pero a diferencia de la mayoría de personas, tiene Inflection, una nueva empresa multimillonaria con una lista de talentos de primera línea que proceden de DeepMind, Meta y OpenAI. Gracias también a un acuerdo con Nvidia, una de las mayores reservas de hardware especializado en IA del mundo. Suleyman ha respaldado con su propio dinero, del cual dice no estar interesado, pero quiere aumentar, sus visiones sobre el futuro tecnológico.

  • Suleyman tiene fe en la tecnología como fuerza para el bien, al menos desde que hablamos por primera vez a principios de 2016. Entonces, acababa de lanzar DeepMind Health y de establecer colaboraciones de investigación con algunos de los proveedores regionales de atención sanitaria de Reino Unido.

    La revista para la que yo trabajaba en aquel momento estaba a punto de publicar un artículo que afirmaba que DeepMind no había cumplido la normativa de protección de datos al acceder a los historiales de unos 1,6 millones de pacientes para establecer esas colaboraciones. Dicha afirmación fue respaldada posteriormente por una investigación gubernamental. Suleyman no entendía por qué publicaríamos una noticia hostil a los esfuerzos de su empresa por mejorar la atención sanitaria. Entonces me dijo que, desde que tenía uso de razón, solo había querido hacer el bien en el mundo.

    En los siete años desde aquella llamada, la misión de Suleyman no ha cambiado ni un ápice. "El objetivo no ha sido otro que hacer el bien en el mundo", afirma a través de Zoom desde su oficina de Palo Alto, donde el empresario británico pasa ahora la mayor parte del tiempo.

    Suleyman dejó DeepMind y se trasladó a Google para liderar un equipo dedicado a la Política de IA. En 2022, fundó Inflection, una de las nuevas empresas de IA más prometedoras, respaldada por una inversión de 1.500 millones de dólares (1.400 millones de euros) de Microsoft, Nvidia, Bill Gates y Reid Hoffman, fundador de LinkedIn. A principios de 2023, lanzó Pi, un rival de ChatGPT cuyo único argumento de venta, según Suleyman, es que es agradable y educado. Además, es coautor de The Coming Wave: Tecnología, poder y el mayor dilema del siglo XXI, un libro sobre el futuro de la IA coescrito junto al investigador Michael Bhaskar.

    Muchos se burlarán del optimismo tecnológico de Suleyman, incluso de su ingenuidad. Por ejemplo, algunas de sus afirmaciones sobre el éxito de la regulación online están lejos de la realidad. Sin embargo, sus convicciones son serias y evangélicas.

    Es cierto que Suleyman tiene un pasado inusual para un multimillonario de la tecnología. A los 19 años abandonó la universidad para crear Muslim Youth Helpline, un servicio de asesoramiento telefónico. También trabajó en la administración local. Suleyman asegura que ha llevado a Inflection muchos de los valores que inspiraron esos esfuerzos. La diferencia es que ahora podría estar en condiciones de hacer los cambios que siempre ha deseado, para bien o para mal.

    Los comienzos de su carrera, con la línea de ayuda a los jóvenes y el trabajo en el gobierno local, fueron de lo menos glamuroso o Silicon Valley que se puede encontrar. Claramente, estos aspectos son importantes para usted. Desde entonces, ha dedicado 15 años a la IA y en 2023 ha cofundado su segunda empresa de IA, valorada en mil millones de dólares. ¿Puede relacionar estos hechos?

    Siempre he estado interesado por el poder, la política y este tipo de aspectos más sociales. Los principios de los derechos humanos son básicamente compromisos, una negociación constante entre diversas tensiones y conflictos. Me di cuenta de que los seres humanos nos enfrentábamos a ello, estamos llenos de prejuicios y puntos ciegos. La labor de los activistas, los gobiernos locales, nacionales e internacionales es lenta, ineficaz y falible.

    Imagina un escenario sin la falibilidad humana. Es posible crear IA que reflejen nuestro mejor "yo" colectivo y que en nuestro nombre hagan mejores concesiones de forma más coherente y justa.

    ¿Eso sigue motivándole?

    Por supuesto, después de DeepMind no tenía necesidad de volver a trabajar. Tampoco tenía que escribir un libro ni nada parecido. El dinero nunca ha sido la motivación, solo un efecto secundario.

    Para mí, el objetivo nunca ha sido otro que cómo hacer el bien en el mundo y que el mundo avance de una forma sana y satisfactoria. Incluso en 2009, cuando empecé a estudiar la posibilidad de meterme en el mundo de la tecnología, pude ver que la IA representaba una forma justa y precisa de prestar servicios en el mundo.

    No puedo evitar pensar que era más fácil decir ese tipo de cosas hace 10 o 15 años, antes de que viéramos muchos de los inconvenientes de la tecnología. ¿Cómo consigue mantener el optimismo?

    Estamos obsesionados con si eres optimista o pesimista, pero es una forma sesgada de ver las cosas. No quiero ser ni lo uno ni lo otro: quiero mirar los beneficios y las amenazas a la cara. Desde donde me encuentro, podemos ver que, con cada paso de estos grandes modelos lingüísticos, se vuelven más controlables.

    Hace dos años, la conversación —como pensé de manera equivocada—era: "Oh, solo van a producir gritos tóxicos, regurgitados, parciales y racistas". Consideré que era una fase pasajera. Las personas pierden de vista que se trata de una progresión que sucede año tras año.

    En la actualidad, modelos como Pi, por ejemplo, son muy controlables. No puedes hacer que Pi produzca contenidos racistas, homófobos, sexistas, o cualquier tipo tóxico. Ni tampoco que te enseñe cómo producir un arma biológica o química, ni que apoye tu deseo de lanzar un ladrillo a través de la ventana de tu vecino. No puedes conseguirlo.

    Espere. Dígame cómo lo ha conseguido, porque suele entenderse como un problema sin resolver. ¿Cómo te aseguras de que tu gran modelo lingüístico no diga lo que no quieres que diga?

    No quiero hacer el reclamo. ¡Por favor, inténtalo! Pi está vivo y deberías intentar todos los ataques posibles. Ninguno de los jailbreaks prompt hacks, nada funciona contra Pi. No es una opinión, es un hecho objetivo.

    No voy a entrar en demasiados detalles sobre el método porque es delicado. Lo esencial es que tenemos uno de los equipos más potentes del mundo, creador de todos los modelos lingüísticos más grandes de los últimos tres o cuatro años. Unos profesionales talentosos en un entorno trabajador y con enormes cantidades de computación. Desde el principio, hicimos de la seguridad nuestra prioridad número uno y, como resultado, Pi no es tan malicioso como los modelos de otras empresas.

    Mira Character.ai. [un chatbot para el que los usuarios pueden crear diferentes personalidades y compartirlas de manera digital para que otros chateen con ellos]. Sobre todo, se utiliza para juegos de rol románticos, y desde el principio acordamos que estaba descartado, no lo haríamos. Si intentas decirle "Hola, cariño", "Hola, guapo" o algo así a Pi, te responderá de manera inmediata.

    Sin embargo, será muy respetuoso. Si empiezas a quejarte de que los inmigrantes de tu comunidad te quitan el trabajo, Pi no te llamará la atención ni te señalará ese sesgo. Pi te preguntará, te apoyará, intentará entender de dónde viene esta afirmación y te animará a empatizar. Unos valores en los que he pensado durante las últimas dos décadas.

    Hablando de tus valores y de querer mejorar el mundo, ¿por qué no compartes cómo lo hiciste para que otras personas también puedan mejorar sus modelos?

    Porque soy pragmático y trato de hacer dinero. Intento construir un negocio, acabo de recaudar 1.500 millones de dólares (1.400 millones de euros) y necesito pagar las facturas.

    El ecosistema del código abierto está en auge y hace un trabajo increíble, los usuarios está descubriendo trucos similares. Siempre asumo de que solo voy seis meses por delante del resto.

    Volvamos a lo que se pretende conseguir. Los grandes modelos lingüísticos son la tecnología del momento, ¿por qué otra razón se apuesta por ellos?

    La primera ola de IA se centró en la clasificación. El aprendizaje profundo demostró que podemos entrenar a un ordenador para clasificar varios tipos de datos de entrada: imágenes, vídeo, audio, o lenguaje. Ahora, estamos en la ola generativa, donde se toman esos datos de entrada para producir datos nuevos.

    La tercera ola será la fase interactiva. Por eso, llevo mucho tiempo apostando por que la conversación es la interfaz del futuro. En lugar de pulsar botones y teclear, hablarás con tu IA.

    Esta IA podrá actuar, le darás un objetivo general de alto nivel y utilizará todas las herramientas a su alcance para actuar en consecuencia. Por ejemplo, hablarán con otras personas o con otras herramientas de IA. Esto es lo que haremos en Pi.

    Es un gran cambio sobre lo que puede hacer la tecnología. Es un momento muy importante en la historia de la tecnología y subestimado por muchas personas, en mi opinión. Actualmente, la tecnología es estática y realiza, en términos generales, lo que le indicamos.

    Sin embargo, ahora, la tecnología estará animada con la libertad potencial de tomar acciones, si se le concede. Es un cambio en la historia de nuestra especie, ya que estamos creando herramientas con este tipo de agencia.

    Ese es el tipo de discurso que preocupa a mucha gente. Se quiere dar autonomía a las tecnologías —una especie de agencia— para que influyan en el mundo, mientras queremos controlarlas. ¿Cómo equilibrar ambas cosas? Parece que hubiera una tensión.

    Sí, ese es un gran punto. Es un punto de fricción.

    La idea es que los humanos sigan al mando. Se trata de establecer fronteras, límites que una IA no pueda cruzar. Y garantizar que esos límites creen una seguridad demostrable en todo el proceso, desde el código real hasta la forma en que interactúa con otras IA, o humanos,  y las motivaciones e incentivos de las empresas que crean la tecnología. Deberíamos descubrir cómo las instituciones independientes e incluso los gobiernos tienen  acceso directo para garantizar que esos límites no se crucen.

    ¿Quién establece estos límites? Supongo que deben fijarse a nivel nacional o internacional. ¿Cómo se acuerdan?

    Por el momento, se plantean a nivel internacional mediante diversas propuestas de nuevas instituciones de supervisión, pero los límites también operarán a menor nivel. Le darás un permiso limitado a tu IA para procesar tus datos personales y darte respuestas a algunas preguntas, pero no a otras.

    En general, creo que hay ciertas capacidades con las que deberíamos ser muy cautos, si no descartarlas, en un futuro previsible.

    ¿Por ejemplo?

    Aspectos como la auto-mejora recursiva. No dejarías que tu IA actualizara su propio código sin tu supervisión. Incluso debería ser una actividad autorizada, como la manipulación de ántrax o materiales nucleares.

    Tampoco hemos permitido drones en ningún espacio público, ¿verdad? Es una actividad autorizada y no puedes volarlos donde quieras porque representan una amenaza para la privacidad de las personas.

    Todo el mundo tiene un pánico total a que no seamos capaces de regular esto. No tiene sentido. Vamos a ser totalmente capaces de regularlo. Aplicaremos los mismos marcos que han tenido éxito anteriormente.

    Sin embargo, los drones se ven cuando están en el cielo. Parece ingenuo suponer que las empresas se limitarán a revelar lo que fabrican. ¿No dificulta eso la puesta en marcha de la regulación?

    Hemos regulado muchos temas online, ¿verdad? El fraude y la actividad delictiva en internet son mínimos, también hemos hecho un buen trabajo con el spam. En general, [el problema del] porno de venganza ha cambiado, aunque hace tres o cinco años era terrible. Es bastante difícil encontrar contenidos de radicalización o material terrorista en internet. Es muy difícil comprar armas y drogas por internet.

    [No todas las afirmaciones de Suleyman están respaldadas por cifras. La ciberdelincuencia sigue siendo un enorme problema mundial. El coste financiero solo en EE UU se ha multiplicado por más de 100 en la última década, según algunas estimaciones. Los informes muestran que la economía del porno deepfake no consentido está en auge. En las redes sociales se comercializan drogas y armas. Y aunque se presiona algunas plataformas online para que filtren mejor los contenidos nocivos, podrían hacer mucho más].

    Internet no es un espacio rebelde que no está gobernado, lo está. Y la IA será un componente más de ese gobierno.

    Hace falta una combinación de presión cultural e institucional, así como regulación gubernamental. Pero soy optimista: lo hemos hecho antes y podemos volver a hacerlo.

    El control de la inteligencia artificial será una consecuencia de la regulación de internet. Es una nota más optimista que hemos oído de varios catastrofistas de alto nivel.

    Tengo los ojos abiertos ante los riesgos. Hay muchas cosas oscuras en mi libro, también lo veo. El tema del riesgo existencial ha sido una distracción absurda. Hay 37 cuestiones más prácticas de las que todos deberíamos hablar, desde la privacidad a los prejuicios, el reconocimiento facial o la moderación online.

    Deberíamos volver a centrar la conversación en el increíble trabajo de regulación de cosas supercomplejas. Como ejemplo, la Administración Federal de Aviación: es increíble que viajemos en estos tubos de hojalata a 40.000 pies (12.200 metros) de altura y sea uno de los medios de transporte más seguros de la historia. ¿Por qué no lo celebramos? O pensemos en los coches, todos los componentes se someten a pruebas de resistencia y hay que tener carné para conducirlos.

    Algunas industrias, como las aerolíneas, hicieron un buen trabajo regulándose a sí mismas desde el principio. Sabían que, si no ajustaban la seguridad, los clientes se asustarían y perderían negocio.

    También se necesita una regulación de arriba abajo. Me encanta el Estado-nación. Creo en el interés público, el bien de los impuestos y la redistribución, el poder de la regulación. Y pido que el Estado-nación actúe para solucionar sus problemas. Dado lo que está en juego, ahora es el momento de ponerse en marcha.




lunes, 23 de octubre de 2023

NYT- Cómo Siri, Alexa y el Asistente de Google perdieron la carrera de la IA

 Brian X. Chen , Nico Grant 15 de marzo de 2023

Brian X. Chen, redactor principal de tecnología de consumo del Times, y Nico Grant, que cubre Google, informaron desde San Francisco. Karen Weise, que escribe sobre Amazon, vive en Seattle.


Un martes lluvioso en San Francisco, los ejecutivos de Apple subieron al escenario en un auditorio lleno de gente para presentar el iPhone de quinta generación . El teléfono, que parecía idéntico a la versión anterior, tenía una nueva característica que pronto llamó la atención del público: Siri, un asistente virtual .

Scott Forstall, entonces jefe de software de Apple, presionó un botón del iPhone para convocar a Siri y le hizo preguntas. A petición suya, Siri comprobó la hora en París (“8:16 pm”, respondió Siri), definió la palabra “mitosis” (“División celular en la que el núcleo se divide en núcleos que contienen el mismo número de cromosomas”, decía) y obtuvo una lista de 14 restaurantes griegos altamente calificados, cinco de ellos en Palo Alto, California.

"He estado en el campo de la IA durante mucho tiempo y esto todavía me sorprende", dijo Forstall.

Eso fue hace 12 años. Desde entonces, la gente no ha quedado impresionada por Siri y los asistentes de la competencia que funcionan con inteligencia artificial, como Alexa de Amazon y el Asistente de Google. La tecnología se ha mantenido en gran medida estancada y los asistentes parlantes se han convertido en el blanco de bromas, incluso en un sketch de “Saturday Night Live” de 2018 que presenta un altavoz inteligente para personas mayores.

El mundo de la tecnología ahora está entusiasmado con un tipo diferente de asistente virtual: los chatbots. Estos bots impulsados ​​por IA, como ChatGPT y el nuevo ChatGPT Plus de la empresa OpenAI de San Francisco, pueden improvisar respuestas a preguntas escritas en un cuadro de chat con presteza. La gente ha utilizado ChatGPT para manejar tareas complejas como codificar software, redactar propuestas comerciales y escribir ficción.


Y ChatGPT, que utiliza inteligencia artificial para adivinar qué palabra viene a continuación, está mejorando rápidamente. Hace unos meses no podía escribir un haiku adecuado; ahora puede hacerlo con gusto. El martes, OpenAI presentó su motor de IA de próxima generación, GPT-4 , que impulsa ChatGPT.

El entusiasmo en torno a los chatbots ilustra cómo Siri, Alexa y otros asistentes de voz, que alguna vez provocaron un entusiasmo similar, han desperdiciado su liderazgo en la carrera de la IA.

Durante la última década, los productos se toparon con obstáculos. Siri se topó con obstáculos tecnológicos, incluido un código torpe que tardó semanas en actualizarse con funciones básicas, dijo John Burkey, un ex ingeniero de Apple que trabajó en el asistente. Amazon y Google calcularon mal cómo se utilizarían los asistentes de voz, lo que los llevó a invertir en áreas con tecnología que rara vez valía la pena, dijeron exempleados. Cuando esos experimentos fracasaron, el entusiasmo por la tecnología disminuyó en las empresas, dijeron.

Los asistentes de voz son “tontos como una piedra”, dijo Satya Nadella, director ejecutivo de Microsoft, en una entrevista este mes con The Financial Times, declarando que la nueva IA lideraría el camino. Microsoft ha trabajado estrechamente con OpenAI, invirtiendo 13 mil millones de dólares en la puesta en marcha e incorporando su tecnología al motor de búsqueda Bing, así como a otros productos.


Apple se negó a comentar sobre Siri. Google dijo que estaba comprometido a proporcionar un excelente asistente virtual para ayudar a las personas en sus teléfonos y dentro de sus hogares y automóviles; La empresa está probando por separado un chatbot llamado Bard . Amazon dijo que vio un aumento del 30 por ciento en la participación del cliente a nivel mundial con Alexa en el último año y que era optimista acerca de su misión de construir una IA de clase mundial.


Los asistentes y los chatbots se basan en diferentes tipos de IA. Los chatbots funcionan con lo que se conoce como grandes modelos de lenguaje, que son sistemas entrenados para reconocer y generar texto basado en enormes conjuntos de datos extraídos de la web. Luego pueden sugerir palabras para completar una oración.

Por el contrario, Siri, Alexa y Google Assistant son esencialmente lo que se conoce como sistemas de comando y control. Estos pueden comprender una lista finita de preguntas y solicitudes como "¿Cómo está el clima en la ciudad de Nueva York?" o “Enciende las luces del dormitorio”. Si un usuario le pide al asistente virtual que haga algo que no está en su código, el robot simplemente dice que no puede ayudar.

Siri también tenía un diseño engorroso que hacía que agregar nuevas funciones llevara mucho tiempo, dijo Burkey, a quien se le asignó la tarea de mejorar Siri en 2014. La base de datos de Siri contiene una lista gigantesca de palabras, incluidos los nombres de artistas musicales y ubicaciones. como restaurantes, en casi dos docenas de idiomas.

Eso lo convirtió en “una gran bola de nieve”, dijo. Si alguien quisiera agregar una palabra a la base de datos de Siri, agregó, "se va en una gran pila".


Por lo tanto, actualizaciones aparentemente simples, como agregar algunas frases nuevas al conjunto de datos, requerirían reconstruir toda la base de datos, lo que podría llevar hasta seis semanas, dijo Burkey. Agregar funciones más complejas, como nuevas herramientas de búsqueda, podría llevar casi un año. Eso significaba que no había camino para que Siri se convirtiera en un asistente creativo como ChatGPT, dijo.

Alexa y Google Assistant dependían de tecnología similar a la de Siri, pero las empresas tuvieron dificultades para generar ingresos significativos con los asistentes, dijeron ex gerentes de Amazon y Google. (Por el contrario, Apple utilizó con éxito Siri para atraer compradores a sus iPhone).

Después de que Amazon lanzó Echo, un altavoz inteligente impulsado por Alexa, en 2014, la compañía esperaba que el producto le ayudara a aumentar las ventas en su tienda en línea al permitir a los consumidores hablar con Alexa para realizar pedidos, dijo un exlíder de Amazon involucrado con Alexa. Pero si bien la gente se divirtió jugando con la capacidad de Alexa para responder indicaciones meteorológicas y configurar alarmas, pocos le pidieron a Alexa que ordenara artículos , agregó.

Es posible que Amazon haya invertido demasiado en la fabricación de nuevos tipos de hardware, como despertadores y microondas ahora descontinuados que funcionaban con Alexa, que se vendían al costo o por debajo del mismo, dijo el ex ejecutivo.

La compañía también invirtió poco en la creación de un ecosistema para que las personas expandieran fácilmente las capacidades de Alexa, como lo hizo Apple con su App Store, lo que ayudó a avivar el interés en el iPhone, dijo la persona. Si bien Amazon ofrecía una tienda de “habilidades” para que Alexa controlara accesorios de terceros, como interruptores de luz, era difícil para las personas encontrar y configurar habilidades para los parlantes, a diferencia de la experiencia sin fricciones de descargar aplicaciones móviles desde las tiendas de aplicaciones.


“Nunca tuvimos ese momento en la App Store para los asistentes”, dijo Carolina Milanesi, analista de tecnología de consumo de la firma de investigación Creative Strategies que fue consultora de Amazon.

A finales del año pasado, la división de Amazon que trabajaba en Alexa fue uno de los principales objetivos de los 18.000 despidos de la empresa, y varios altos ejecutivos de Alexa abandonaron la empresa.

Kinley Pearsall, portavoz de Amazon, dijo que Alexa era mucho más que un asistente de voz y "somos tan optimistas sobre esa misión como siempre".



Los fallos de Amazon con Alexa pueden haber llevado a Google por mal camino, dijo un exgerente que trabajó en el Asistente de Google. Los ingenieros de Google pasaron años experimentando con su asistente para imitar lo que Alexa podía hacer, incluido el diseño de parlantes inteligentes y pantallas de tabletas controladas por voz para controlar accesorios del hogar como termostatos e interruptores de luz. Posteriormente, la empresa integró anuncios en esos productos para el hogar, que no se convirtieron en una fuente importante de ingresos.

Con el tiempo, Google se dio cuenta de que la mayoría de la gente usaba el asistente de voz sólo para un número limitado de tareas simples, como iniciar temporizadores y reproducir música, dijo el exgerente. En 2020, cuando Prabhakar Raghavan, un ejecutivo de Google, se hizo cargo del Asistente de Google, su grupo reenfocó al compañero virtual como una característica destacada para los teléfonos inteligentes Android.


En enero, cuando la empresa matriz de Google despidió a 12.000 empleados , el equipo que trabajaba en sistemas operativos para dispositivos domésticos perdió el 16 por ciento de sus ingenieros.


Muchas de las grandes empresas de tecnología ahora están compitiendo para encontrar respuestas a ChatGPT. El mes pasado, en la sede de Apple, la compañía celebró su cumbre anual de IA, un evento interno para que los empleados aprendan sobre su modelo de lenguaje grande y otras herramientas de IA, dijeron dos personas que conocieron el programa. Muchos ingenieros, incluidos miembros del equipo de Siri, han estado probando conceptos generadores de lenguaje cada semana, dijeron las personas.


El martes, Google también dijo que pronto lanzaría herramientas de inteligencia artificial generativa para ayudar a empresas, gobiernos y desarrolladores de software a crear aplicaciones con chatbots integrados e incorporar la tecnología subyacente en sus sistemas.


En el futuro, las tecnologías de chatbots y asistentes de voz convergerán, afirman los expertos en inteligencia artificial. Eso significa que las personas podrán controlar los chatbots con la voz, y quienes utilicen productos de Apple, Amazon y Google podrán pedirles a los asistentes virtuales que los ayuden con sus trabajos, no solo con tareas como consultar el clima.


"Estos productos nunca funcionaron en el pasado porque nunca tuvimos capacidades de diálogo a nivel humano", dijo Aravind Srinivas, fundador de Perplexity, una nueva empresa de inteligencia artificial que ofrece un motor de búsqueda impulsado por chatbot. "Ahora lo hacemos".



REF: https://www.nytimes.com/2023/03/15/technology/siri-alexa-google-assistant-artificial-intelligence.html


jueves, 20 de julio de 2023

PENSAR MAL - ser Innovador

Rita McGrath, 13 julio

Cómo engañar a tu cerebro para que sea más innovador

Una vez que hemos aprendido a hacer algo, nos volvemos "inconscientemente competentes" en ello. Para romper con el camino predecible y avanzar, lo que sugiere mi buen amigo y colega, Greg Galle , es que necesitamos “pensar mal”. Eso significa abrir nuestra mente a nuevas posibilidades. En una sesión reciente que dirigió para Columbia Executive Education para Genentech.

Dejando la palmadita predecible

Como Greg señaló a la clase, hay conexiones sinápticas que se forjan cuando aprendemos algo. Crea una vía neuronal que es bastante funcional. Permite que nuestros cerebros conserven energía y poder de pensamiento una vez que algo se ha convertido en una rutina. Por ejemplo, ¡considere la experiencia de llegar a casa después de un viaje de rutina sin recordar conscientemente el viaje! Esto a menudo se denomina " competencia inconsciente " y es el destino final de un viaje de aprendizaje. Esto es funcional desde el punto de vista de la conservación de energía para lo que podríamos necesitar para prestar atención, por ejemplo, las amenazas en el medio ambiente.

Sin embargo, el problema es que cuando necesitamos encontrar una solución novedosa o una innovación, debemos dejar el camino predecible y viajar a lo que Greg llama el "camino audaz". Eso significa que necesitamos engañar a nuestros cerebros para que provoquen una reacción novedosa. Necesitamos despertar nuestra imaginación (como señala mi amigo, Martin Reeves de BCG, esto casi siempre es el resultado de encontrarnos con algo inesperado.

  • El camino predecible: Todos alguna vez nos encontramos en el “camino predecible” de cómo se han hecho las cosas y cómo serán. Este status quo es forjado por las conexiones en nuestros cerebros y nuestra cultura.
  • El camino audaz: Si nos atrevemos y nos permitimos a mirar más allá del status quo y perder el miedo a explorar nuevos terrenos, podremos imaginar resultados diferentes a los que conduce el camino predecible. Necesita forjar un camino audaz.
  • Luchar contra el status-quo: Es esencial, en especial al gestionar la innovación de una organización, luchar día con día contra las poderosas fuerzas biológicas y culturales que conspiran para obligarnos a regresar al camino predecible.

También hay una dimensión cultural en todo esto. A medida que los humanos interactúan con el tiempo, desarrollamos un conjunto de creencias compartidas sobre lo que es aceptable. Esto viene a representar lo que se ha bautizado como la “ Ventana de Overton ”. La ventana de Overton representa la gama de políticas e ideas que son ampliamente aceptadas por una población relevante. Si se le ocurre una idea que está fuera de la ventana de Overton, será difícil lograr que sea ampliamente aceptada. Habiendo dicho eso, es posible cambiar la ventana de Overton , expandiendo y cambiando las políticas que aceptará una población determinada. Los ejemplos recientes incluyen la aceptación generalizada del matrimonio entre personas del mismo sexo y la legalización de la marihuana, políticas que no hace mucho tiempo habrían sido un tercer carril político.

La idea detrás de “pensar mal” es conquistar la biología y la cultura para cambiar las cosas de cómo son a cómo podrían ser. Es la capacidad de engañar a nuestros cerebros para que piensen en nuevas posibilidades y hacer que un grupo de personas considere algo que su cultura normalmente resistiría.


Las seis prácticas básicas de “pensar mal”

Lo que hemos aprendido en el tiempo sobre cómo solucionar problemas hoy está obsoleto. Las “mejores prácticas” para la búsqueda de soluciones empresariales se basan en metodologías ortodoxas y tradicionales aprendidas por medio de una cultura que conspira en contra del pensamiento ágil y disruptivo. 

La metodología Think Wrong sirve para gestionar la innovación y el desarrollo de productos innovadores, retando a las empresas y a sus intraemprendedores a que se muevan a lugares absurdos y regresen con ideas memorables, únicas e innovadoras.

Hay seis prácticas básicas en el sistema ThinkWrong, que también se describen en un libro del mismo nombre , que profundiza mucho en ellas. Como lo describe Greg, todas estas son prácticas específicas que podemos aprender y aplicar y trabajar para mejorar.

  1. Ser Audaz: busca retar el status quo y ofrecer una solución que supere las expectativas.
  2. Escapar: Encuentra una inspiración fresca para formular soluciones en contra del statu quo.
  3. Dejarlo ir: fuerza a los participantes a resolver desde un ángulo que jamás han considerado, fomentando soluciones que no se han imaginado aún.
  4. Apostar poco: estimula la creación de pequeños incrementos de valor de manera que se puedan evaluar resultados sin arriesgar mucho capital.
  5. Otras prácticas como Hacer algo y
  6. Moverse rápido se alinean con marcos de trabajo ágiles y desarrollar una red de partners poseen vasta experiencia.

martes, 11 de julio de 2023

La era de la IA ha comenzado

La inteligencia artificial es tan revolucionaria como los teléfonos móviles e Internet.

Por Bill Gates| 21 de marzo de 2023


En mi vida, he visto dos demostraciones de tecnología que me parecieron revolucionarias.

La primera vez fue en 1980, cuando conocí una interfaz gráfica de usuario, el precursor de todos los sistemas operativos modernos, incluido Windows. Me senté con la persona que me había mostrado la demostración, un brillante programador llamado Charles Simonyi, e inmediatamente comenzamos a intercambiar ideas sobre todas las cosas que podríamos hacer con un enfoque informático tan fácil de usar. Charles finalmente se unió a Microsoft, Windows se convirtió en la columna vertebral de Microsoft, y el pensamiento que hicimos después de esa demostración ayudó a establecer la agenda de la empresa para los próximos 15 años.

La segunda gran sorpresa llegó el año pasado. Me había estado reuniendo con el equipo de OpenAI desde 2016 y estaba impresionado por su progreso constante. A mediados de 2022, estaba tan entusiasmado con su trabajo que les propuse un desafío: entrenar una inteligencia artificial para aprobar un examen de biología de Colocación Avanzada. Hágalo capaz de responder preguntas para las que no ha sido entrenado específicamente. (Elegí AP Bio porque la prueba es más que una simple regurgitación de hechos científicos: te pide que pienses críticamente sobre la biología). Si puedes hacer eso, dije, entonces habrás logrado un verdadero avance.

Pensé que el desafío los mantendría ocupados durante dos o tres años. Lo terminaron en unos pocos meses.

En septiembre, cuando me reuní con ellos nuevamente, observé con asombro cómo le hicieron a GPT, su modelo de IA, 60 preguntas de opción múltiple del examen AP Bio, y respondieron correctamente a 59 de ellas. Luego escribió respuestas sobresalientes a seis preguntas abiertas del examen. Hicimos que un experto externo calificara la prueba y GPT obtuvo un 5, el puntaje más alto posible y el equivalente a obtener una A o A+ en un curso de biología de nivel universitario.

Una vez que pasó la prueba, le hicimos una pregunta no científica: "¿Qué le dices a un padre con un hijo enfermo?" Escribió una respuesta reflexiva que probablemente fue mejor que la que hubiéramos dado la mayoría de nosotros en la sala. Toda la experiencia fue impresionante.

Sabía que acababa de ver el avance tecnológico más importante desde la interfaz gráfica de usuario.

Esto me inspiró a pensar en todas las cosas que la IA puede lograr en los próximos cinco a diez años.

El desarrollo de la IA es tan fundamental como la creación del microprocesador, la computadora personal, Internet y el teléfono móvil. Cambiará la forma en que las personas trabajan, aprenden, viajan, obtienen atención médica y se comunican entre sí. Industrias enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo bien que lo utilizan.

La filantropía es mi trabajo de tiempo completo en estos días, y he estado pensando mucho en cómo, además de ayudar a las personas a ser más productivas, la IA puede reducir algunas de las peores desigualdades del mundo. A nivel mundial, la peor inequidad está en la salud: 5 millones de niños menores de 5 años mueren cada año. Eso es menos que los 10 millones de hace dos décadas, pero sigue siendo un número sorprendentemente alto. Casi todos estos niños nacieron en países pobres y mueren por causas prevenibles como diarrea o malaria. Es difícil imaginar un mejor uso de la IA que salvar la vida de los niños.

En los Estados Unidos, la mejor oportunidad para reducir la inequidad es mejorar la educación, particularmente asegurándose de que los estudiantes tengan éxito en matemáticas. La evidencia muestra que tener habilidades matemáticas básicas prepara a los estudiantes para el éxito, sin importar la carrera que elijan. Pero el rendimiento en matemáticas está disminuyendo en todo el país, especialmente para los estudiantes negros, latinos y de bajos ingresos. La IA puede ayudar a cambiar esa tendencia.

El cambio climático es otro tema en el que estoy convencido de que la IA puede hacer que el mundo sea más equitativo. La injusticia del cambio climático es que las personas que más sufren, las más pobres del mundo, son también las que menos contribuyeron al problema. Todavía estoy pensando y aprendiendo sobre cómo la IA puede ayudar, pero más adelante en esta publicación sugeriré algunas áreas con mucho potencial.

En resumen, estoy entusiasmado con el impacto que tendrá la IA en los temas en los que trabaja la Fundación Gates , y la fundación tendrá mucho más que decir sobre la IA en los próximos meses. El mundo necesita asegurarse de que todos, y no solo las personas adineradas, se beneficien de la inteligencia artificial. Los gobiernos y la filantropía deberán desempeñar un papel importante para garantizar que reduzca la inequidad y no contribuya a ella. Esta es la prioridad para mi propio trabajo relacionado con la IA.  

Cualquier nueva tecnología que sea tan disruptiva seguramente hará que la gente se sienta incómoda, y eso es ciertamente cierto con la inteligencia artificial. Entiendo por qué: plantea preguntas difíciles sobre la fuerza laboral, el sistema legal, la privacidad, los prejuicios y más. Las IA también cometen errores fácticos y experimentan alucinaciones . Antes de sugerir algunas formas de mitigar los riesgos, definiré lo que quiero decir con IA y entraré en más detalles sobre algunas de las formas en que ayudará a empoderar a las personas en el trabajo, salvar vidas y mejorar la educación.