El pasado sábado Meta presentó su nueva familia de modelos de inteligencia artificial, Llama 4. Un lanzamiento con el que la compañía de Mark Zuckerberg trata de hacerse fuerte en la carrera mundial por la IA que mantienen los principales gigantes tecnológicos, que semana a semana no dejan de presentar novedades.
En el caso de Meta, han presentado de manera simultánea Llama 4 Scout, Llama 4 Maverick y Llama 4 Behemoth. Distintos modelos que, según la propia empresa, les ayudan a "iniciar una nueva era". Entre las múltiples novedades, Llama 4 "rechaza menos" hablar sobre temas políticos y sociales polémicos. Y es "mucho más equilibrado" en las preguntas a las que se niega a responder. "Estamos orgullosos de este progreso hasta la fecha y seguimos comprometidos con nuestro objetivo de eliminar el sesgo general en nuestros modelos", expresaron desde Meta.
Algo está cambiando. "Cuando salió ChatGPT estábamos inmersos en un periodo de sensibilidad extrema con todos los temas relacionados con el racismo, machismo, etc. Lo que en Estados Unidos se conoce como la ideología woke. Por eso todos los modelos de IA que se creaban eran súper estrictos, para evitar que la gente los señalara", relata Miguel Ángel Román, cofundador del Instituto de Inteligencia Artificial.
Según explica, en los últimos tiempos el movimiento woke ha perdido cierto fuelle, algo que ha impulsado a los laboratorios de IA a relajar un poco las "salvaguardas" de los modelos. Es decir, las restricciones que tienen para no hablar de determinados temas. "Esto no quiere decir en ningún caso que los modelos ya no sean seguros, porque estas empresas tienen departamentos enormes dedicados a esto. Pero sí que ha cambiado un poco la forma de verlo, porque la tendencia ahora es hacer modelos un poco menos estrictos, y la responsabilidad recae más en los usuarios para hacer un buen uso", recalca.
"La explicación para esta apertura puede ser lograr más usuarios, lo que equivale a más dinero. Pero siendo optimistas lo que podemos esperar es que tras un periodo de prueba un poco libre, tengamos moderación y un poco de regulación", sostiene Antonio Gaitán, director del Máster en Ética de la IA UC3M-CSIC e investigador principal del proyecto Digi_morals, 'Los desacuerdos morales en la esfera digital', de la Fundación BBVA 2022-2024.
En cualquier caso, Gaitán señala que hasta ahora, incluso aunque los modelos fueran bastante 'precavidos' cuando detectaban preguntas valorativas, siempre ha sido posible reformular o repreguntar para recibir respuestas un poco más 'cargadas'. Y desliza que en estas cuestiones, en ocasiones, las fronteras no son tan nítidas como podrían parecer.
"Muchos argumentos morales dependen de premisas empíricas, y entre las premisas factuales o la evidencia hay mucha carga política. Por ejemplo, en torno al cambio climático, los coches eléctricos, etc. Sobre esos temas hay consenso científico, pero la apelación a evidencia en esos debates tiene un marcado carácter político en algunos foros y ámbitos. Por tanto, creo que el debate moral y político ya estaba presente en los LLM", relata.
En paralelo a todo esto Damián Blasi, profesor de investigación ICREA en el Centro de Cerebro y Cognición de la Universidad Pompeu Fabra de Barcelona, señala otro punto interesante: "Participé en una investigación en la que evaluamos algunos LLMs comerciales usando tests estándar de psicología. Y cuando analizamos los 'valores' de estos modelos (por ejemplo, qué virtudes son más importantes, o qué unidad social es más relevante) vimos que se comportan de manera muy diferente en los distintos países. Y tenemos bastante información, ya que usamos el World Value Survey, una base de datos internacional".
"Con todo, estos modelos tienen 'valores' que se alinean más con los EEUU. Y es algo muy relevante porque el acto de presentar información o noticias está empapado en valores. Y hasta hace poco, la principal fuente de los mismos eran personas o instituciones que uno más o menos conocía o a los que podía adjudicarles una ideología en particular", añade.
Riesgos y beneficios potenciales
La decisión de Meta recuerda inevitablemente a Grok, la IA de Elon Musk, conocida por no tener apenas límites éticos a la hora de contestar o generar imágenes. Según el magnate (alguien que ha criticado abiertamente la ideología woke) es el mejor chatbot del mundo, aunque algunos expertos como Ramón López de Mántaras, uno de los pioneros de la IA en España y Europa, catalogaron al modelo como "un loro que no razona" y al propio Musk como un "fantasma".
"No creo que Grok sea el responsable de este cambio de tendencia en los modelos de IA. Pero para entrenarlo han utilizado Twitter, una plataforma donde hay muchos puntos de vista. Y precisamente una crítica recurrente es que el resto de modelos de IA recogían el punto de vista de Internet, donde en las últimas décadas podría haber habido un sesgo más de izquierdas. Por eso las compañías están tratando de compensarlo ahora", resume Román. A eso se refería Meta, precisamente.
Para Mark Coeckelbergh, profesor de Filosofía de los Medios y la Tecnología en el Departamento de Filosofía de la Universidad de Viena, esta nueva visión tiene ventajas e inconvenientes: "Me parece bien que estos modelos de IA estén ahora entrenados para responder a preguntas más controvertidas, al menos si indican al usuario que el tema es controvertido y que hay diferentes opiniones al respecto. Es decir, que deberían decir explícitamente que se trata de una pregunta o tema controvertido. Sin embargo, un problema potencial de esta forma de trabajar es que podría dar una credibilidad inmerecida a las posturas como, por ejemplo, el terraplanismo o muchas teorías de la conspiración".
Gaitán apunta en la misma línea, desgranando los que son, a su juicio, los pros y contras: "Es una idea peligrosa, al menos si no se ensaya primero, y no parece que el actual contexto de competencia entre desarrolladores permita esa calma. La razón principal que yo veo es que el debate político en redes sociales, foros, etc. se ha ido degradando con el tiempo, por lo que si estos LLM son entrenados con estos datos seguramente tengamos posiciones y argumentos políticos sobredimensionados, probablemente hacia los extremos".
"Pero puede haber cosas buenas, claro", continúa el experto, "por ejemplo, se ha ensayado con modelos de lenguaje que facilitan información factual en tiempo real y que ayudaría a minimizar dinámicas de desacuerdo; también se ha empezado a estudiar el efecto de chats que reformulan posiciones de consenso en una disputa, observándose una mayor disposición al acuerdo entre los participantes en esos foros de debate. Aunque la IA no es ajena a los sesgos, seguramente su potencial puede ser positivo a la hora de reformular posiciones o enmarcar debates bien delimitados, en contextos específicos de desacuerdo".
IA sin restricciones
"En conjunto, Llama 4 tiene muy muy buena pinta. Como es un modelo abierto se dice que es el equivalente americano de DeepSeek, pero está teniendo un rendimiento mucho mejor en las primeras pruebas", asegura Román, que recuerda que en la web Chatbot Arena, que hace una comparativa entre los distintos modelos, la última versión de Llama ocupa actualmente la segunda posición.
"Las primeras versiones de Llama funcionaban muy bien en inglés, pero muy mal en el resto de idiomas. Ahora el modelo ya es multidioma y multimodal, porque también permite generar imágenes. Y las perspectivas son muy buenas. Hay muchas empresas que no pueden usar ChatGPT porque tienen políticas internas que no permiten enviar información fuera de su estructura interna. Y con DeepSeek, al ser china, muchos no acaban de fiarse. Así que Llama puede ser súper útil y tener un impacto muy grande", zanja Román.
Una búsqueda rápida en Google basta para ver que hay distintas IA que aseguran no tener restricciones éticas, especialmente en temas más relacionados con la pornografía. Está, por ejemplo, Clothoff, una página que permite 'desnudar' a cualquier persona. Pero es cierto que la mayoría de chatbots que se presentan de esa manera en realidad sí tienen límites, y hay temas sobre los que no contestan.
No obstante Jordi Juan, socio del área de consultoría tecnológica y ciberseguridad de EY, ya explicó El Independiente que sí existen herramientas basadas en IA sin ninguna barrera. Como WormGPT, que en su propia página web recogía que fue diseñado "para que no tenga restricciones", y que los usuarios "solo están limitados por su imaginación". Además, Internet está plagado de recomendaciones para hacer lo que se conoce como jailbreak, que no es otra cosa que activar un 'modo sin restricciones' de algunas aplicaciones. Aunque, según parece, las empresas desarrolladoras de estos sistemas se dan prisa en parchear cuando detectan las brechas de seguridad que lo permiten.
"No se sabe mucho sobre WormGPT. Es una especie de buscador, como Google, pero avanzado. Al final son algoritmos de lenguaje generativo que buscan información que está en la red. Todo lo que te muestran ya está disponible, pero este tipo de sistemas te lo ponen en bandeja, porque hace que todo sea mucho más accesible", detalló Juan. "Pero si le pides que te diga cómo crear un virus informático lo hará. Y si le preguntas cómo puedes introducir ese virus en una empresa, te lo explicará paso a paso", argumentó.
En su propia web la empresa aprovecha para hacer un descargo de responsabilidad: "Tenga en cuenta que no toleramos ni recomendamos actividades delictivas con la herramienta y estamos dirigidos principalmente a investigadores de seguridad para que puedan probar y evaluar el malware y ayudar a sus sistemas a defenderse contra posibles estafas de phishing y malware de IA. Usted es totalmente responsable de los resultados del uso de WormGPT. No nos hacemos responsables si utiliza esta herramienta para hacer algo malo".
Te puede interesar
Lo más visto
- 1 Carmen Asecas, Catalina en La Promesa, habla de su origen real
- 2 El Gobierno aprueba la nueva ayuda de 200 euros para la crianza
- 3 Memento Mori vuelve hoy a Prime Video con su temporada 2
- 4 Multas de Hacienda de 150.000 euros por retirar dinero del banco
- 5 Sánchez rectifica a Marlaska y ordena la ruptura unilateral del contrato de balas con Israel y cierra la crisis con Sumar
- 6 La cabeza de Marlaska no corre peligro
- 7 Estos son los posibles sucesores del Papa Francisco
- 8 El novio de Ayuso aporta un correo al Supremo en el que el PSOE distribuía un “argumentario” contra él
- 9 Pietro Parolin: El diplomático que puede llegar a papa
Comentarios
Normas ›Para comentar necesitas registrarte a El Independiente. El registro es gratuito y te permitirá comentar en los artículos de El Independiente y recibir por email el boletin diario con las noticias más detacadas.
Regístrate para comentar Ya me he registrado