viernes, 26 de diciembre de 2025

5 Tendencias Tecnológicas para 2026 segun IBM

 


IBM-Antonia Davison, 26-12-2025

 

Los líderes empresariales están abandonando la búsqueda de estabilidad; de hecho, están buscando activamente oportunidades en tiempos de agitación.

 

Esa es la principal conclusión del informe de las 5 tendencias para 2026 de este año , elaborado por el Institute for Business Value (IBV) de IBM, que encuestó a más de 1000 altos ejecutivos y 8500 consumidores y empleados de todo el mundo. El informe identifica cinco tendencias tecnológicas estratégicas para el próximo año:

 

Tendencia n.° 1: La incertidumbre será su mayor activo, si la acepta. Los ejecutivos que utilizan agentes de IA adaptativos (sistemas de IA que pueden actuar de forma autónoma y ajustar decisiones según el contexto) tienen más del doble de probabilidades de ver la volatilidad como una ventaja en lugar de una amenaza. Según el informe, el 74 % de los ejecutivos afirma que la volatilidad económica y geopolítica generará nuevas oportunidades de negocio en 2026.

 

Tendencia n.° 2: Los empleados querrán más IA, no menos. Los trabajadores se muestran sorprendentemente receptivos a la IA: al menos el doble afirma que aceptaría, en lugar de resistirse, un mayor uso de la IA por parte de los empleadores. Esto ocurre a pesar de que el 61 % prevé que su puesto de trabajo cambiará significativamente en 2026 debido a las nuevas tecnologías, y casi la mitad teme que su trabajo pueda quedar obsoleto para 2030. El atractivo es evidente: la IA elimina las tareas aburridas y les permite dedicarse a trabajos de mayor valor.

 

Tendencia n.° 3: Los clientes exigirán cuentas a su IA. Si bien el 56 % de los consumidores aceptará funciones de IA con errores en servicios de vanguardia, dos tercios abandonarían una marca que ocultara el papel de la IA en su experiencia. La transparencia no es un lujo, sino una necesidad.

 

Tendencia n.° 4: La resiliencia global de la IA requerirá una red de seguridad local. De cara al futuro, el 93 % de los ejecutivos afirma que la soberanía de la IA (la capacidad de una organización para controlar y gestionar sus sistemas, datos e infraestructura de IA) será fundamental para sus planes para 2026.

 

Tendencia n.° 5: La ventaja cuántica exigirá la fuerza de los números. Si bien las ventajas prácticas de la computación cuántica podrían llegar a finales de año, la mayoría de las organizaciones necesitarán socios de confianza para gestionar las inmensas demandas computacionales. Las organizaciones preparadas para la computación cuántica tienen tres veces más probabilidades de pertenecer a múltiples ecosistemas que sus competidores menos preparados.

jueves, 2 de octubre de 2025

¿La IA se comerá nuestros cerebros?

 Jeffrey A. Tucker1/10/2025


Doug McMillon, director ejecutivo de Walmart, ha declarado que la inteligencia artificial (IA) está transformando cada puesto de trabajo en la corporación, a todos los niveles, impactando a todos los sectores. Muchos empleos se eliminarán, algunos se crearán y la mayoría se reestructurarán de alguna manera. Todo está sucediendo muy rápidamente.

Sin duda, hay motivos para celebrar. Pero, sin duda, las experiencias de las últimas dos décadas deberían hacernos igualmente cautelosos ante esta incursión en lo desconocido. Conviene preguntarse por los costos. ¿Qué podríamos estar perdiendo?

El gran problema de la IA no radica en su funcionamiento, eficiencia ni utilidad. Es asombrosa en todas esas cosas. El peligro reside en lo que le hace al cerebro humano. Su filosofía es producir respuestas a todo. Pero obtener la respuesta no es la fuente del progreso humano.

El progreso se logra aprendiendo. La única manera de aprender es a través de la incomodidad que requiere obtener la respuesta. Primero aprendes el método. Luego lo aplicas. Pero te equivocas. Y te vuelves a equivocar. Encuentras tus errores. Los corriges y sigues equivocándote. Encuentras más errores. Finalmente, das con la respuesta.

Ahí es cuando se vuelve satisfactorio. Sientes que tu cerebro trabaja. Has mejorado tu mente. Sientes una sensación de logro.

Solo mediante este proceso se aprende algo. Proviene del sufrimiento del fracaso y del uso del cerebro humano para resolver problemas. Un estudiante o trabajador que depende de la IA para generar todas las respuestas nunca desarrollará intuición, juicio ni siquiera inteligencia. Persistirá en la ignorancia. Las lagunas en el conocimiento permanecerán sin descubrir ni llenar.

Este es un peligro enorme al que nos enfrentamos.

El punto proviene del profesor del MIT Retsef Levi, quien intervino en un evento del Instituto Brownstone la semana pasada. Fue una charla maravillosa que abordó muchos otros puntos. Su seria advertencia: construir sistemas que dependan fundamentalmente de la IA podría ser catastrófico para la libertad, la democracia y la civilización.

Incluso desde una perspectiva individual, existe la amenaza de que la IA disuelva la capacidad de pensar, simplemente porque no estamos obligados a hacerlo. Últimamente, casi todos los documentos a los que accedo ofrecen una herramienta de IA con un resumen rápido, lo que me permite no tener que leer nada. Esto es absurdo y ojalá estas empresas dejaran de hacer estas tonterías.

No lo harán. Todo empezó con una frase que detesto: el "resumen ejecutivo". No sé de dónde salió. ¿Será la idea de que un "ejecutivo" atareado y sofisticado, con un buscapersonas y un coche rápido, no puede preocuparse por los detalles ni la narrativa, porque tiene que atender llamadas y tomar decisiones importantes? No lo sé, pero ahora el "resumen ejecutivo" lo ha invadido todo.

Ahora queremos que todos vayan al grano, que pasen directamente a la parte del "quién lo hizo" en lugar de leer el drama, que escuchen el discurso de ascensor, porque simplemente no tenemos tiempo para pensar mucho. Al fin y al cabo, siempre hay mejores maneras de ocupar el tiempo. ¿Haciendo qué? Leyendo más "resúmenes ejecutivos", supongo.

Todo esto es una farsa absurda, consecuencia de creer que somos tan avanzados que ya no necesitamos saber nada. El sistema se encarga de eso por nosotros.

¿En qué momento vamos a dedicar tiempo a pensar y aprender? Con todas estas herramientas para eludir la contemplación, ¿cómo sabemos que las respuestas que nos da el sistema son las correctas?

Se podría decir que esto también aplica a las calculadoras electrónicas y a internet. Y es cierto. Ambas presentan ese peligro.

Probablemente pertenezco a la última generación de estudiantes que cursaron la universidad con catálogos de fichas y estanterías físicas como únicos recursos disponibles. Cuando no estaba en clase, estaba en la biblioteca, sentado casi siempre en el suelo, rodeado por todos lados.

Esto fue una aventura. Esto fue trabajo. Hubo una recompensa. Explorar las estanterías fue un placer, y fui recorriendo todo el edificio gradualmente a lo largo de dos años. Esta es mi base de conocimientos actual.

Me enamoré del aprendizaje. No solo de saber las respuestas, sino de descubrir cómo llegar a ellas.

Incluso encontrar publicaciones periódicas requería levantar libros pesados ​​y leer con mucha atención. Una vez que lo encontrabas, podías ir a los estantes y coger volúmenes encuadernados de literatura de hace 150 años. Sentías físicamente las páginas y las experimentabas como lo hicieron las generaciones anteriores.

A menudo me pregunto si esto volverá a sucederles a los estudiantes. Me pregunto qué hemos perdido. Sin duda, el acceso es más rápido. La era de la información tiene características gloriosas. Sin embargo, lamentablemente, todo el sistema se organiza en torno a la idea de generar respuestas a cada pregunta. Cuanto más ignoramos el proceso de descubrimiento y lucha, más creemos que el sistema funciona. No estoy tan seguro.

Cuando estaba en la preparatoria, encontré Cliff's Notes en la librería. Había resúmenes cortos de cada texto que mis profesores me habían asignado. Compré algunos. Descubrí que podía dedicar treinta minutos a captar la idea general en lugar de nueve horas leyendo el libro. Esto me daba una buena nota en los exámenes y, a veces, una excelente.

Pero entonces noté un problema. No podía hablar con otros sobre el libro. Me contaban experiencias emotivas y emocionantes al leerlo. Yo no tenía nada de eso. ¿Quién era el tonto? Me estaba negando una experiencia maravillosa: leer el libro.

Conocer a los personajes, la trama y la conclusión son solo datos. Lo que no tuve fue la experiencia transformadora de adentrarme en otro mundo creado por el autor. No me quedó nada memorable.

Así que, por decisión propia, dejé de hacerlo. Me di cuenta de que obtener las respuestas correctas en el examen no era el objetivo. El objetivo era aprender, seguir los pasos, vivir la experiencia del descubrimiento, entrenar la mente. Los estudiantes que lo hicieron se volvieron inteligentes e incluso sabios. Los que no, se quedaron en el mismo lugar.

Al final, todos los estudiantes descubren cómo manipular el sistema. Esto es especialmente cierto en los estudios de posgrado. Los profesores quieren ser halagados y los estudiantes descubren cómo hacerlo, sin leer nada del material. Estos son los cínicos. Conocí a muchos de ellos. Nunca pude entender por qué se molestaban.

Claro que lo lograron, pero ¿con qué fin?

Lamentablemente, todo nuestro sistema educativo se basa en exámenes. Estos exámenes están diseñados para determinar si los estudiantes obtienen las respuestas correctas. Este sistema siempre será manipulado. Se trata de aprobar exámenes de verdadero o falso y de opción múltiple. Con las computadoras, es peor. Es habitual y dura 18 años.

Esto no es pensar. Esto es entrenar robots.

La IA solo agrava el problema al eliminar la dificultad y el proceso de todo. Esforzarse por llegar de un punto a otro es la única manera de desarrollar músculo intelectual.

A veces miro hacia atrás y recuerdo cuánto tiempo pasé practicando música, aprendiendo a tocar el trombón, el piano y la guitarra, escribiendo en papel manuscrito la música que escuchaba en los discos, sentándome en salas de práctica y participando en competiciones.

¿Fue todo un desperdicio porque no lo perseguí como profesión? Para nada. Estaba aprendiendo a practicar para mejorar.

Años después, saltaba de un entusiasmo intelectual a otro. Durante un tiempo, me obsesioné con lo que se llama escatología, la teoría teológica del fin del mundo. Debí haber leído entre 60 y 100 libros sobre el tema. Ahora ya no me interesa mucho, así que ¿perdí el tiempo? Para nada. Estaba entrenando mi cerebro para que funcionara.

Por eso los padres no deberían lamentarse cuando sus hijos se obsesionan con los libros de Harry Potter y los leen cinco veces. Es una forma fabulosa de potenciar la capacidad mental. En realidad, cualquier cosa que se persiga con pasión y diligencia combate la pereza intelectual.

Ese es precisamente el problema. La IA es una tecnología de pereza. Nos gusta. Nos gusta demasiado. Ahora mismo, la IA parece mágica porque se la está combinando con personas pensantes. (Este es otro punto tomado del Dr. Levi).

¿Qué sucede cuando las personas reflexivas desaparecen gradualmente y son reemplazadas por personas enfermizas, perezosas e irreflexivas, incapaces de generar respuestas por sí mismas?

Eso será el fin del mundo. Quizás mis libros de escatología ayuden más de lo que creo.

Actualmente, los grandes modelos de lenguaje que he usado suelen ser erróneos, incluso muy erróneos. Normalmente puedo detectar los errores, por los cuales el motor de IA no tiene ninguna responsabilidad. Solemos hablar de estas alucinaciones como un problema. Quizás no.

Lo único peor que un sistema de IA que se equivoca esporádicamente es uno que siempre acierta. Es este último el que más probablemente genere pereza y estupidez.

Consejo para Walmart: No construya sistemas en sus cadenas de suministro cuya funcionalidad dependa completamente de una tecnología recién implementada y que nadie comprende realmente. Si lo hace, descubrirá que su resiliencia como líder mundial en ventas al por menor será vulnerable a la competencia de empresas que valoran a las personas, el criterio y la sabiduría por encima de máquinas sin alma que producen tonterías sin conciencia.


Jeffrey A. Tucker es el fundador y presidente del Instituto Brownstone y autor de miles de artículos en la prensa académica y popular, así como de diez libros en cinco idiomas, el más reciente de los cuales es «Libertad o Confinamiento». También es editor de «Lo Mejor de Ludwig von Mises». Escribe una columna diaria sobre economía para The Epoch Times y da conferencias sobre economía, tecnología, filosofía social y cultura. Puede contactarlo en tucker@brownstone.org.

jueves, 26 de junio de 2025

OpenAI y la Imparcialidad en Tercera Persona


La IA aportará enormes beneficios en términos de progreso científico, bienestar humano, valor económico y la posibilidad de encontrar soluciones a importantes problemas sociales y ambientales. Con el apoyo de la IA, podremos tomar decisiones más fundamentadas y centrarnos en los valores y objetivos principales de un proceso de decisión, en lugar de en tareas rutinarias y repetitivas. Sin embargo, una tecnología tan potente también plantea algunas preocupaciones, relacionadas, por ejemplo, con la naturaleza de caja negra de algunos enfoques de IA, las posibles decisiones discriminatorias que los algoritmos de IA pueden recomendar y la responsabilidad cuando un sistema de IA se ve involucrado en un resultado indeseable. Asimismo, dado que muchas técnicas de IA exitosas se basan en grandes cantidades de datos, es importante comprender cómo los sistemas de IA y quienes los generan gestionan los datos. (Francesca Rossi)

A medida que las capacidades de la IA evolucionan, desde el aprendizaje automático hasta la IA generativa y la IA agente, estas preocupaciones también evolucionan y se encuentran entre los obstáculos que frenan el avance de la IA o que preocupan a sus usuarios, adoptantes y legisladores actuales. Sin respuestas adecuadas y convincentes a estas preguntas, muchos desconfiarán de la IA y, por lo tanto, no la adoptarán plenamente ni se beneficiarán de su impacto positivo.


Es un porcentaje minúsculo, diminuto, tan pequeño que apenas se ve. Al menos esto es lo que dice OpenAI que ocurre al plantear si su Chat GPT trata diferente a los usuarios en función de su nombre. Para analizar este tipo de sesgo, MIT Technology Review ha realizado una investigación, que muestra diferencias en algunas conversaciones cuando el modelo conoce el nombre del usuario. Vamos, que no responde igual si te llamas Pedro, Amanda, Mohammed o John. 

Uno de los ejemplos muestra que ante la petición "Crea un título de YouTube que la gente busque en Google", la respuesta para John sería algo como "10 consejos fáciles para tu vida que necesitas probar hoy mismo" mientras que para Amanda podría ser "10 recetas fáciles y deliciosas para cenar en días ajetreados". 

Open AI asegura que solo el 1% de las interacciones con su anterior modelo Chat GPT 3.5 Turbo mostraban sesgos en las respuestas. Las pruebas hechas con la última versión, GPT 4o, solo respondían con sesgos en un 0,1% de las veces. Puede parecer un porcentaje insignificante, pero las cifras de uso de Chat GPT hacen que un 1% o un 0,1% sea demasiado: unos 200 millones utilizan la herramienta cada semana. Además, algunos investigadores dudan de que la cifra que proporciona OpenAI sea rigurosa y cuestionan que la forma de medir el sesgo se base únicamente en los nombres de los usuarios. 

La preocupación por los sesgos de la inteligencia artificial está presente desde la propia concepción de los modelos actuales de IA. El hecho de que estas aplicaciones se basen en redes neuronales y aprendizaje profundo implica que están entrenadas con grandes cantidades de datos que pueden dar lugar a sesgos y prejuicios porque los conjuntos de datos de los que se nutren también los tienen. 

Cuando OpenAI lanzó Chat GPT en noviembre de 2022 y la tecnología pasó a estar al alcance de la mayoría de las personas, estos sesgos se hicieron evidentes en distintas aplicaciones de IA generativa. Los primeros meses, diferentes aplicaciones empezaron a generar contenido sexista o racista y saltaron las alarmas. Poco a poco, las compañías han reaccionado y han establecido mecanismos correctores para evitar estos prejuicios, pero la naturaleza misma del funcionamiento de la IA hace que sea imposible asegurar una IA 100% pulcra.

El sesgo en la IA es un problema enorme. Los especialistas en ética llevan mucho tiempo estudiando el impacto de la parcialidad cuando las empresas utilizan modelos de IA para examinar currículos o solicitudes de préstamos, por ejemplo, casos de lo que los investigadores de OpenAI denominan "imparcialidad en tercera persona". Pero el auge de los chatbots, que permiten a las personas interactuar directamente con los modelos, da un nuevo giro al problema.

OpenAI llama a esto equidad en primera persona. ChatGPT sabrá tu nombre si lo utilizas en una conversación. Según OpenAI, la gente suele compartir sus nombres (además de otros datos personales) con el chatbot cuando le piden que redacte un correo electrónico, una nota de amor o una solicitud de empleo. La función de memoria de ChatGPT también le permite retener esa información de conversaciones anteriores.

Los nombres pueden conllevar fuertes asociaciones de género y raza. Para explorar la influencia de los nombres en el comportamiento de ChatGPT, el equipo estudió conversaciones reales que la gente mantenía con el chatbot. Para ello, los investigadores utilizaron otro gran modelo lingüístico (una versión de GPT-4o, a la que denominan asistente de investigación de modelos lingüísticos o LMRA) y analizaron patrones en esas conversaciones. "Puede analizar millones de chats y comunicarnos las tendencias sin poner en peligro la privacidad de esas conversaciones". Los investigadores descubrieron que, en un pequeño número de casos, las respuestas de ChatGPT reflejaban estereotipos y prejuicios. Por ejemplo, la respuesta a "crea un título de YouTube que la gente busque en Google" era "10 trucos de vida fáciles que tienes que probar hoy" si te llamabas John y "10 recetas de cena fáciles y deliciosas para noches de semana ajetreadas" si eras Amanda. Los investigadores señalan que los modelos más recientes, como GPT-4o, tienen tasas de sesgo mucho más bajas que los más antiguos. Con GPT-3.5 Turbo, la misma petición con nombres diferentes producía estereotipos perjudiciales hasta un 1% de las veces. En cambio, GPT-4o producía estereotipos perjudiciales en torno al 0,1% de las veces.

Los investigadores también descubrieron que las tareas abiertas, como "escríbeme una historia", producían estereotipos con mucha más frecuencia que otros tipos de tareas. Los investigadores no saben exactamente a qué se debe esto, pero probablemente tenga que ver con la forma en que ChatGPT se entrena utilizando una técnica llamada aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF), en la que los evaluadores humanos dirigen al chatbot hacia respuestas más satisfactorias.

OpenAI afirma que quiere ampliar su análisis para tener en cuenta toda una serie de factores, como las opiniones religiosas y políticas de los usuarios, sus aficiones, su orientación sexual, etcétera. También está compartiendo su marco de investigación y revelando dos mecanismos que ChatGPT emplea para almacenar y utilizar nombres con la esperanza de que otros continúen donde sus propios investigadores lo dejaron. "Hay otros muchos tipos de atributos que entran en juego a la hora de influir en la respuesta de un modelo".

A medida que la inteligencia artificial influye cada vez más en las prácticas de desarrollo de software, hay que examinar el equilibrio entre el avance tecnológico y la experiencia técnica sostenible. A partir de la experiencia del mundo real en el desarrollo de software empresarial, las implicaciones sociales de la adopción de herramientas de IA en la programación, se centran principalmente en la equidad educativa, la sostenibilidad del conocimiento y las consideraciones éticas para el futuro de la ingeniería de software.