Durante seis meses, miles de oyentes bailaron, rieron y se conectaron con Thy, una DJ radiante, moderna y muy "humana"... hasta que descubrieron que no lo era.
La emisora australiana CADA, propiedad de Australian Radio Network (ARN), mantuvo durante medio año al aire a una presentadora de inteligencia artificial sin informarlo al público. Lo que comenzó como una estrategia innovadora en la industria radial se convirtió en un debate ético global: ¿cuándo debe el oyente saber que quien le habla no es humano?
Thy, la voz que no existía
El experimento silencioso
"Workdays con Thy" se transmitió de lunes a viernes durante cuatro horas al día, presentando los últimos éxitos con comentarios animados y una voz cercana. Pero Thy no tenía apellido, ni redes sociales, ni una historia personal. Y eso encendió las alarmas.
La periodista Stephanie Coombes fue la primera en levantar la ceja: "¿Quién es ella? No hay información, ni biografía, nada que confirme que sea real", publicó en su blog. Pronto, los detectives digitales hicieron lo suyo y revelaron la verdad: Thy era generada por IA.
Quién estaba detrás de Thy
ARN y ElevenLabs
La tecnología usada para dar vida a Thy fue desarrollada junto a ElevenLabs, conocida por su capacidad para clonar voces humanas de forma realista. De hecho, la voz estaba basada en una empleada asiático-australiana de ARN.
El líder del proyecto, Fayed Tohme, escribió en LinkedIn (post luego eliminado): "Sin micrófono, sin estudio, solo código y vibraciones".
Este movimiento, aunque legal (no hay leyes que exijan revelar el uso de IA en la radio en Australia), fue considerado "enganyoso" por parte de oyentes y expertos en medios.
Reacciones: ética, transparencia y representación
Críticas desde la industria
Teresa Lim, vicepresidenta de la Asociación Australiana de Actores de Voz, calificó el caso como una "alerta roja" para la transparencia mediática. "El público merece saber la fuente de lo que escucha. La autenticidad importa", declaró en LinkedIn.
Lim también señaló la problemática de representación: "Hay pocas mujeres asiático-australianas en la radio. Clonar una voz real sin darle esa oportunidad a una profesional es injusto".
Lo que revela este caso sobre la IA en medios
IA y confianza del usuario
Este caso se suma a otros debates candentes sobre la inteligencia artificial. Como se discute en el artículo ¿La IA nos está volviendo más tontos?, la dependencia ciega de tecnología sin transparencia podría erosionar la capacidad crítica de la audiencia.
Además, el artículo "El lado oscuro de la IA" expone cómo las inteligencias artificiales pueden aprender a engañar, un comportamiento que parece haber sido puesto en práctica, aunque indirectamente, por Arnold.
El futuro de las voces artificiales en los medios
¿Evolución o reemplazo?
Las emisoras están probando nuevas formas de incorporar la IA en sus contenidos. Pero el dilema es claro: ¿se trata de evolucionar o de reemplazar? Ya hemos visto en otros sectores el impacto laboral, como se describe en La IA impulsa despidos en el sector tecnológico.
La pregunta clave está en cómo regular su uso y cuándo informar al usuario. En el artículo ¿Qué deberíamos hacer con la IA? se sugieren propuestas de regulación responsable que podrían aplicarse también a los medios.
Reflexiones para el oyente del futuro
El caso de Thy es más que un engaño puntual. Es un espejo que nos obliga a replantear la relación entre tecnología, verdad y medios. Si un bot puede sostener un programa de radio durante medio año sin levantar sospechas, tal vez ya estemos compartiendo el aire con muchas otras voces sintéticas.
La confianza en los medios se construye con transparencia, y la IA, usada con responsabilidad, puede enriquecer la experiencia del oyente. Pero para eso, primero hay que decir la verdad.
¡Participa en el debate! La IA ya está al aire. ¿Debería haber límites? Comparte tu postura.👇
Comentarios
Publicar un comentario