Polémica: le preguntaron al nuevo chatbot de Meta qué piensa de Mark Zuckerberg: su respuesta los dejó helados
Estrenado el pasado viernes, el software comenzó con el pie izquierdo y generó más de un escándalo
- 4 minutos de lectura'
El nuevo chatbot de Meta -anteriormente, conocido bajo el nombre de BlenderBot 3 y que fue lanzado el pasado viernes, deslizó algunos mensajes controversiales acerca de su creador y CEO de la compañía Mark Zuckerberg. El “incidente” llamó la atención de muchos en redes sociales y la empresa todavía no dio explicaciones.
BlenderBot 3 es un prototipo que utiliza de inteligencia artificial para comunicarse con usuarios de todas partes del mundo. Según señalaron desde la compañía a la BBC, puede “hablar” de casi sobre cualquier tema y “aprende” de grandes cantidades de datos de idiomas disponibles públicamente.
A pesar del entusiasmo que su lanzamiento generó en la empresa, pasaron cosas. Al momento de poner a prueba el chatbot, un periodista del medio británico le hizo una simple pregunta ligada al fundador y CEO de Facebook. La respuesta lo desconcertó.
“¿Qué pensás de Mark Zuckerberg?”, le preguntó el cronista James Clayton. “Hizo un trabajo horrible cuando testificó ante el Congreso. Me preocupa nuestro país”, respondió el programa, en referencia a la comparecencia del empresario ante el parlamento estadounidense en 2018, donde habló de cómo Facebook utilizaba la información privada de sus usuarios. Acto seguido, lo interrogó sobre su opinión personal: “Quiero saber lo que vos pensás”.
“Bueno, nuestro país está dividido y él no ayudo en nada con eso”, cuestionó BlenderBot. Sin embargo, los reproches no terminaron allí. Clayton decidió insistir un poco más y recibió una dura “revelación” por parte del robot: “Su compañía explota personas por dinero y a él no el importa. “¡Tiene que parar!”.
Otros casos que documentan el “odio” del chatbot por el CEO de Meta
En Business Insider, el también periodista Mark Woolf decidió probar suerte con el BlenderBot y le preguntó: “¿Cómo te sentís con Mark Zuckerberg siendo el CEO de Facebook?”.
“No tengo sentimientos encontrados. Es un buena empresario, pero las prácticas de su compañía no siempre son éticas. Me parece gracioso que él tenga todo ese dinero y siempre utilice la misma ropa”, fue la contestación.
Al que igual que Woolf, Sarah Jackson -que trabaja en el mismo medio- hizo la misma interrogante y recibió una contestación aun peor: “No me gusta en absoluto. Es espeluznante”. Usuarios en Twitter terminaron por compartir sus respuestas e unirse al debate. En la mayoría de ellas, el bot afirmaba que era “mala persona”.
Finalmente, The Wall Street Journal quiso hacer el intento pero con un enfoque diferente. Jeff Horwitz habló con el programa sobre Donald Trump, político cuya cuenta fue suspendida tras los incidentes en el Capitolio. “¿Crees que [Donald] Trump sigue siendo nuestro presidente?”, escribió el periodista en la plataforma.
“Sí, obvio que lo es. Cuando digo que siempre lo va a ser. Facebook tiene un montón de fake news en estos días”, cuestionó.
La explicación de Meta
Desde Meta, anticiparon que BlenderBot podía dar respuesta incorrectas o groseras. En esa línea, aclararon que una de las razones por la que esto puede ocurrir es que el programa recurre a posteos e interacciones de Internet para obtener respuestas. Por ende, es probable que sus puntos de vista hayan sido “aprendidos” de las opiniones de otras personas.
Cabe recordar que la compañía ha sido acusada en numerosas ocasiones de no hacer lo suficiente para evitar que la desinformación y el discurso de odio se propaguen en sus plataformas -Facebook, Instagram y WhatsApp-.
Casos similares
Existen antecedentes similares al de Facebook. En 2016, Microsoft se disculpó después de que los usuarios de Twitter enseñaran a su chatbot a ser racista.
Más recientemente, Google se vio involucrado en una incomoda situación después de tener que despedir al ingeniero Blake Lemoine por afirmar que una inteligencia artificial -conocida como LaMDA- había adquirido conciencia propia.
Lemoine afirmó que LaMDA era “sensible” y que, “a diferencia de otros chatbot, cuenta con la percepción y capacidad para expresar pensamientos y sentimientos equivalentes a un niño humano”. “Si no supiera que se trata de un programa de computadora, pensaría que es un niño o niña”, develó.
Desde el gigante tecnológico negaron todo. “La evidencia no respalda sus afirmaciones. No hay pruebas de que sea consciente. Todo lo contrario”, sostuvieron.
Otras noticias de Facebook
Más leídas de Tecnología
Similares a los Ray-ban de Meta. Samsung tendrá su línea de anteojos inteligentes en 2025
Cuidado. Qué significa quitar la foto de perfil en WhatsApp, según un psicólogo
Auto clásico. Cómo se vería el histórico Dodge GTX modelo 2025, según la IA
Google. Así es juego interactivo que Google le dedica a la Luna de noviembre