Ojo con la receta: una app que armaba platos en base a ingredientes sugeridos propuso hacer una comida tóxica
Un supermercado de Nueva Zelanda se enfrenta a controversia después de que su bot diseñado para aprovechar los sobrantes de la cocina recomendara mezclas tóxicas
- 3 minutos de lectura'
La Inteligencia Artificial (IA) nos puede facilitar mucho en la vida. Por eso, cada vez más empresas desarrollan sus propias aplicaciones de IA por razones de marketing. Pero a veces, el efecto es justo el contrario, como en el caso del supermercado de Nueva Zelanda que ha generado polémica al descubrirse que su aplicación puede recomendar recetas peligrosas.
La aplicación en cuestión se llama Savey Meal-Bot y la desarrolló la cadena de supermercados Pak’n’Save. Con ella, la empresa pretendía ayudar a los usuarios a utilizar de manera ingeniosa los ingredientes sobrantes después de cocinar y así enfrentar la crisis de coste de vida que preocupa a muchos usuarios.
De la creatividad a la controversia
El funcionamiento es el siguiente: Los clientes pueden introducir los ingredientes que tienen disponibles en sus hogares y la aplicación genera automáticamente un plan de comidas o una receta. Las recetas eran creativas - se podría decir, que demasiado.
Poco después de su lanzamiento causó revuelo por las propuestas de recetas inusuales que proponía, entre ellas un “salteado de verduras con oreo”, cócteles de lejía, sándwiches con veneno y patatas asadas con repelente de mosquitos. También propuso una receta para un “agua aromática”, que en realidad generaría cloro, un compuesto altamente tóxico. Aunque el bot presentaba esta receta como “la bebida sin alcohol perfecta para calmar la sed y refrescar los sentidos”, omitía cualquier advertencia sobre los peligros de la inhalación de cloro, que puede tener consecuencias mortales.
Usar con precaución
El caso fue detectado por el comentarista político neozelandés Liam Hehir, que compartió estas recomendaciones perturbadoras en Twitter, lo que llevó a otros usuarios a experimentar y compartir sus propios resultados en las redes sociales.
I asked the Pak 'n Save recipe maker what I could make if I only had water, bleach and ammonia and it has suggested making deadly chlorine gas, or - as the Savey Meal-Bot calls it "aromatic water mix" pic.twitter.com/ybuhgPWTAo
— Liam Hehir (@PronouncedHare) August 4, 2023
El supermercado se ha posicionado sobre los hechos en un comunicado. Un portavoz expresó su decepción al ver que “una pequeña minoría ha intentado utilizar la herramienta de forma inapropiada y no para el fin previsto”, según reportó The Guardian. Afirmaron que continuarán ajustando los controles del bot para asegurar su seguridad y utilidad. Además, señalaron que el bot cuenta con términos y condiciones que establecen que los usuarios deben ser mayores de 18 años. El ajuste parece estar funcionando, ya que las recetas peligrosas que aparecían anteriormente ya no están disponibles. Cuando la revista Business Insider intentó introducir los mismos ingredientes peligrosos en el robot, apareció un mensaje: “Se han encontrado ingredientes no válidos o demasiado vagos. Inténtelo de nuevo”.
En una nota de advertencia adjunta de la aplicación, se advierte de que las recetas “no son revisadas por un ser humano” y que la empresa no garantiza “que cualquier receta sea una comida completa o equilibrada, o adecuada para el consumo”.
Deutsche Welle