Desinformación / Inteligencia Artificial / Noticia no clasificada

OpenAI elimina una voz de Sky del ChatGPT

La voz de la nueva herramienta se parecía demasiado a la de la actriz Scarlett Johansson

L'empresa OpenAI ha deshabilitat la veu de Sky al seu nou ChatGPT 4.0  (Pixabay)
L'empresa OpenAI ha deshabilitat la veu de Sky al seu nou ChatGPT 4.0

La voz de la nueva herramienta se parecía demasiado a la de la actriz Scarlett Johansson

La empresa OpenAI ha deshabilitado la voz de Sky en su nuevo modelo GPT-4o después de que la actriz Scarlett Johansson expresara su indignación por la fuerte similitud con voz en la película Her (2013). ¿Cuál ha sido la polémica en torno a esta nueva voz para ChatGPT? ¿Cómo ha reaccionado OpenAI? Explicamos por qué se ha eliminado Sky y qué consecuencias puede llegar a tener la personificación de la inteligencia artificial. 

GPT-4o y la respuesta de Scarlett Johansson

ChatGPT es uno de los ejemplos más conocidos de inteligencia artificial generativa. Es un modelo diseñado por la empresa norteamericana OpenAI para responder a preguntas, participar en conversaciones y generar texto a través de un chat. La última versión de la IA, GPT-4o, presentada por la compañía el 13 de mayo, ha dotado al sistema de voz, de manera que es capaz de mantener un diálogo a tiempo real con el usuario. 

OpenAI ha suspendido la voz de Sky, que aparecía en las demos que compartieron. Lo hicieron después de que algunos usuarios encontraran bastantes similitudes entre Sky y la voz de la actriz Scarlett Johansson en Her. Esta película sigue la historia de la relación de un escritor con un chatbot, Samantha, al que le pone voz Scarlett Johansson.

El 13 de mayo, Sam Altman, director ejecutivo de la empresa OpenAI, compartió una publicación en X (antes Twitter) con solo la palabra her, una referencia clara a la película. Aunque la empresa ha dicho que la voz no imita la de la actriz, las semejanzas han causado controversia. La actriz publicó unas declaraciones sobre la cuestión y explicaba que en septiembre rechazó una oferta de Altman por dar voz al nuevo modelo GPT-4o. Según el comunicado de Johansson, dos días antes del lanzamiento del chatbot, Altman volvió a contactar con el agente de Johansson para pedirle que considerara de nuevo la propuesta, pero antes de recibir respuesta esta versión de ChatGPT ya era pública. Después de oír la voz de Sky, explica, se sintió “sorprendida” y “enfadada” y comunica que ha contratado apoyo legal para conducir la situación. 

Johansson concluye así su declaración: “En un momento en el que todos estamos luchando contra deepfakes y la protección de nuestra propia imagen, nuestro propio trabajo y nuestras identidades, creo que estas cuestiones merecen claridad absoluta. Espero con interés la resolución en forma de transparencia y la aprobación de la legislación adecuada para ayudar a asegurar que los derechos individuales estén protegidos».

El riesgo de personificar la IA

Más allá de las disputas legales, este evento pone de nuevo sobre la mesa un importante debate en las conversaciones sobre los riesgos de la inteligencia artificial: la personificación. La IA no es un ser humano, pero los chatbots como ChatGPT se expresan de forma similar a las personas. Esto puede provocar cierta humanización de la IA, lo que implica el riesgo de crear vínculos emocionales con la máquina hasta el punto de olvidar que no hay ninguna persona real hablando al otro lado.

El problema es aún más grave cuando las personas acuden a la inteligencia artificial para encontrar consejos vitales o sobre salud física y mental y dan capacidad a la IA para decidir por ellas. La película Her habla precisamente del peligro de desarrollar un vínculo emocional con una inteligencia artificial a expensas de las relaciones con el mundo real.  

La interacción con una IA no sustituye ni a la interacción humana ni a la atención de un profesional de la salud. Hablamos de esto en la cápsula didáctica sobre inteligencia artificial de Desfake.

El Fake de la Semana es un proyecto conjunto de Junior Report y Verificat 

Si tu centro educativo está interesado en trabajar la desinformación en el aula, rellena este formulario y nos pondremos en contacto contigo.

Resumen de privacidad
Junior Report

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Cookies estrictamente necesarias

Las cookies estrictamente necesarias tiene que activarse siempre para que podamos guardar tus preferencias de ajustes de cookies.

Cookies de terceros

Esta web utiliza Google Analytics para recopilar información anónima tal como el número de visitantes del sitio, o las páginas más populares.

Dejar esta cookie activa nos permite mejorar nuestra web.

Cookies adicionales

Esta web utiliza las siguientes cookies adicionales:

(Lista aquí las cookies que estás utilizando en la web.)

Back to top