En medio del conflicto continuo entre los defensores fervientes de la IA y los activistas anti-IA, Google ha decidido jugar en ambos bandos. Por un lado, impulsa la agenda de la IA con proyectos como Gemini y Vertex, mientras que por otro, alerta al público sobre los peligros de la inteligencia artificial generativa. Primero, YouTube facilita a los usuarios la eliminación de contenido de IA que simula su voz y apariencia, y ahora, un nuevo informe del equipo de investigación de IA de Google ha salido a la luz, detallando cómo esta tecnología ya está perjudicando Internet.
Detectado inicialmente por 404 Media, un artículo de investigación de Google DeepMind explora el “uso indebido” de la IA generativa, analizando fuentes académicas existentes y 200 artículos de noticias para ilustrar cómo se está utilizando la inteligencia artificial para empeorar la web.
Según el informe, las tácticas más comunes en el uso indebido de la IA en el mundo real incluyen la manipulación de la semejanza humana (por ejemplo, deepfakes) y la falsificación de pruebas, principalmente con la intención de influir en la opinión pública, habilitar actividades fraudulentas o generar ganancias. La investigación también revela que no se necesita ser Albert Einstein para abusar del sistema, ya que la mayoría de los casos implican modelos de IA generativa de fácil acceso que requieren una mínima experiencia técnica.
“La disponibilidad generalizada, accesibilidad e hiperrealismo de los resultados de GenAI en todas las modalidades también ha permitido nuevas formas de uso indebido de menor nivel que difuminan las líneas entre la presentación auténtica y la engañosa”, concluye el informe, destacando que el principal daño de la IA es su capacidad para oscurecer la distinción entre lo real y lo falso en línea.
Curiosamente, a pesar de la insistencia del informe en etiquetar estos casos como “uso indebido”, reconoce que la mayoría de los casos de uso de la IA para inundar Internet con contenido generado por máquinas, falso o no, “a menudo no son ni abiertamente malintencionados ni violan explícitamente las políticas de contenido o términos de servicio de estas herramientas”. En términos sencillos, esto significa que dichos usos son intencionales y las herramientas de IA funcionan como se espera, un hecho que, seamos honestos, es bastante obvio incluso sin ningún artículo científico.
Aún más interesante es el hecho de que tanto el informe como la actualización mencionada de la política de contenido de YouTube identifican los deepfakes como la aplicación más dañina de la IA generativa. Si bien es difícil argumentar en contra de esto – imagina videos generados por IA de políticos declarando guerra entre sí – el enfoque de Google en advertir al público sobre los deepfakes en particular puede parecer algo desconcertante, considerando los miles de millones que el gigante tecnológico ya ha invertido en la investigación de la IA, que, entre otras cosas, también facilita la creación de deepfakes.
¿Saben algo que nosotros no sabemos? ¿Deberíamos prepararnos para una ola de deepfakes casi indistinguibles causando caos en la vida real? ¿Hay alguna verdad en la teoría de que la inteligencia artificial de la generación actual se desarrolló años antes del auge de la IA en 2022 y solo se lanzó al público como parte de un experimento que está entrando en una nueva etapa? ¡Dinos lo que piensas en los comentarios!
Puedes leer el informe completo de 29 páginas haciendo clic en este enlace. No olvides unirte a nuestra plataforma 80 Level Talent y a nuestro canal de Telegram, síguenos en Instagram, Twitter, LinkedIn, TikTok y Reddit, donde compartimos análisis, las últimas noticias, increíbles obras de arte y más.