La versión 2.0 de Grok, la IA de Elon Musk, ha dado que hablar tras su reciente estreno, el miércoles 14 de agosto. Es que la herramienta de generación de imágenes artificiales carece de medidas de seguridad que protejan la integridad de las personas. Así lo demostró creando todo tipo de imágenes provocativas: desde Taylor Swift en ropa interior, hasta el Pato Donald consumiendo drogas.
Limitada a los suscriptores pagos de X, Grok 2.0 funciona en sintonía con los discursos a favor de la libertad de expresión (tanto para personas como robots) del dueño de Tesla.
En un análisis realizado por The Guardian, estas fueron las imágenes más controversiales que generó la IA de Elon Musk:
La versión 2.0 de Grok está disponible para usuarios pagos de X. Sin embargo, The Guardian accedió a ella para corroborar la difusión de imágenes ofensivas, que atentan contra la integridad humana.
Según difundieron, la oleada de imágenes ofensivas y sin censura dejó fotos como:
Estas y otras imágenes solo están disponibles en plataformas como Grok donde, a diferencia de sitios webs, periódicos, buscadores u otras herramientas de IA, no existen los límites a los derechos de autor o a la vulneración de la identidad de una persona.
(Podría interesarte: Nadan, corren y controlan incendios forestales: así son los perros robot que quieren reemplazar a los perros reales)
Musk lanzó Grok en noviembre de 2023 con la idea de una “inteligencia artificial que busca la verdad al máximo”. Pero, ¿qué es la verdad? Aunque pueda ser interpretada de forma relativa, a primera vista, las imágenes generadas por la IA de Musk parecen abogar más por la desinformación, la violencia, la falta de respeto y la vulneración de la integridad de las personas, que por la verdad.
Ante el revuelo en redes de las controversiales imágenes, Musk tuiteó: “¡Grok es la IA más divertida del mundo!”
Aún así, Grok 2.0, que tiene a la libertad de expresión como eje central, tiene ciertos límites (hasta el momento) respecto a, por ejemplo, la generación de imágenes de desnudos: “desafortunadamente no puedo generar ese tipo de imagen”, respondió ante la solicitud de The Guardian.
A diferencia de otras herramientas de IA como Chat-GPT o Gémini, Grok 2.0 ha roto los límites éticos, abriendo el debate de la regulación dentro del mundo de la inteligencia artificial. Aunque, para la Ley de IA de la Unión Europea que comenzará a aplicarse en 2026, Grok 2.0 pareciera superar el umbral de lo que se considera una IA de alto riesgo para el ser humano.
(Podría interesarte: Chat GPT-4: las 3 nuevas mejoras que ya están cambiando el futuro de la humanidad)
Ante el arrollador avance de la Inteligencia Artificial, la Unión Europea estrenó la Ley de Inteligencia Artificial, que comenzará a aplicarse a partir de 2026.
Con el objetivo de abordar los riesgos de seguridad que representa una tecnología cada vez más avanzada, la Ley de IA de la UE clasifica las aplicaciones de inteligentes en tres categorías de riesgo: riesgo inaceptable, aplicaciones de “alto riesgo” y sistemas de riesgo “mínimo”.
A pesar de que el criterio aún no está 100% definido, la IA de Elon Musk aparenta ser una de riesgo inaceptable o, al menos, de alto riesgo.
¿Vos qué pensas de las imágenes generadas por Grok 2.0?
La matriz energética argentina sigue dominada por los combustibles fósiles, que representan aproximadamente el 88%…
Miedo, tristeza, incertidumbre, gratitud, solidaridad. Los niños y adolescentes de la comunidad de Valencia ponen…
Se proclamó la Declaración de Buenos Aires sobre la Personalidad Jurídica de los Animales No…
Desde el 28 de octubre, diversos pueblos latinoamericanos rinden homenaje a sus muertos. El alma…
¿Cuáles son y dónde están los empleos de futuro? Tres segmentos ocupacionales merecen especial atención:…
Argentina puede ocupar un lugar estratégico en el escenario global. Sin embargo, es imprescindible salir…