Amazon usa a la abuela muerta de un niño en una demostración enfermiza del audio deepfake de Alexa

Amazon usa a la abuela muerta de un niño en una demostración enfermiza del audio deepfake de Alexa

agrandar / El altavoz inteligente Amazon Echo Dot de cuarta generación.

Amazonas

Amazon está trabajando en formas de permitir que su asistente de voz Alexa falsifique la voz de cualquier persona, viva o muerta, con solo una breve grabación. La compañía hizo una demostración de la función el miércoles en la conferencia re: Mars en Las Vegas, aprovechando el trauma emocional y el dolor de la pandemia en curso para atraer el interés del mercado.

Re:Mars de Amazon se centra en la inteligencia artificial, el aprendizaje automático, la robótica y otras tecnologías emergentes, con tecnólogos y líderes de la industria. Durante el discurso de apertura del segundo día, Rohit Prasad, vicepresidente senior de Amazon y científico jefe de Alexa AI, mostró una función que se está desarrollando para Alexa.

Durante la demostración, un niño le preguntó a Alexa: “¿Puede la abuela terminar de leerme? El mago de Oz?” Alexa respondió con su voz típicamente débil y mecánica: “Está bien. ‘ Pero luego la voz de la abuela del niño salió de los parlantes, leyendo la historia de L. Frank Baum.

Puedes ver la demostración a continuación:

Amazon re:MARS 2022 – Día 2 – Discurso principal.

Prasad solo dijo que Amazon estaba “trabajando” en la funcionalidad de Alexa, sin especificar qué trabajo quedaba y cuándo estaría disponible.

Sin embargo, proporcionó pequeños detalles técnicos.

“Requirió inventiva y tuvimos que aprender a hacer un sonido de alta calidad con menos de un minuto de grabación, en lugar de horas de grabación en el estudio”, dijo. “La forma en que lo implementamos fue definir el problema como una tarea de conversión de voz, en lugar de una tarea de generación de voz”.

Prasad analiza muy brevemente cómo funciona la función.
agrandar / Prasad analiza muy brevemente cómo funciona la función.

Por supuesto, los deepfakes se han ganado una reputación controvertida. Aún así, hay esfuerzos para usar la tecnología como una herramienta, no como una espeluznante.

Como señala The Verge, los medios de comunicación han explotado las falsificaciones de audio para ayudar a compensar, por ejemplo, la muerte repentina de una estrella de un podcast que arruinó las líneas o un proyecto, como en el documental de Anthony Bourdain. corredor.

La publicación señala que incluso hay personas que usan inteligencia artificial para crear chatbots que pueden comunicarse como un ser querido perdido.

Alexa ni siquiera será el primer producto de consumo en usar audio falso para llenar a los miembros de la familia que no pueden estar allí en persona. Como señala Gizmodo, el altavoz inteligente Takara Tomy usa inteligencia artificial para leer el cuento de un niño antes de dormir usando la voz de un padre. Según los informes, los padres pueden subir sus voces leyendo el guión durante unos 15 minutos. Aunque esto es notablemente diferente de la demostración de Amazon, ya que el propietario del producto decide proporcionar su voz, no la voz de alguien cuyo uso del producto podría no darle permiso.

Además de las preocupaciones sobre el uso de deepfakes para estafas, piratería y otras actividades nefastas, ya hay algo preocupante sobre cómo Amazon creó la función, que ni siquiera tiene una fecha de lanzamiento.

Antes de mostrar la demostración, Prasad habló sobre la “compañía” que brinda Alexa a los usuarios.

“En este rol de acompañante, la empatía humana y los atributos emocionales son clave para generar confianza”, dijo el ejecutivo. “Estos atributos se han vuelto aún más importantes durante este tiempo de pandemia, cuando muchos de nosotros hemos perdido a nuestros seres queridos. Si bien la IA no puede eliminar el dolor de la pérdida, definitivamente puede hacer que sus recuerdos perduren”.

Prasad agregó que la característica “puede crear relaciones personales duraderas”.

De hecho, innumerables personas buscan seriamente la “empatía y la emoción” humanas para hacer frente a la angustia emocional causada por la pandemia de COVID-19. Sin embargo, el asistente de voz impulsado por IA de Amazon no es el lugar para satisfacer estas necesidades humanas. Alexa tampoco puede crear “relaciones personales duraderas” con personas que ya no están con nosotros.

No es difícil creer que hay buenas intenciones detrás de esta función de desarrollo, y escuchar las voces de aquellos a los que extrañas puede ser un gran consuelo. En teoría, incluso podríamos vernos a nosotros mismos gustando de una característica como esta. No hay nada de malo en pedirle a Alexa que haga que sus amigos suenen como si estuvieran diciendo algo estúpido. Como discutimos anteriormente, hay otras compañías que aprovechan la tecnología deepfake de una manera similar a la que demostró Amazon.

Pero construir la funcionalidad en desarrollo de Alexa como una forma de restablecer el contacto con los familiares fallecidos es un salto enorme, poco práctico y problemático. Al mismo tiempo, no tiene sentido tirar de las fibras del corazón provocando la tristeza y la soledad asociadas con la pandemia. Hay algunos lugares que no pertenecen a Amazon, y Grief Counseling es uno de ellos.

Leave a Comment

Your email address will not be published.