En pleno 1 de abril de 2026, un video de una conversación con ChatGPT ha paralizado las redes sociales por lo absurdo de su desenlace. Todo comenzó cuando un usuario consultó a la IA sobre la viabilidad de consumir carne con un año y medio de congelación. Con una seguridad pasmosa, la herramienta afirmó que, mientras no se hubiera roto la cadena de frío, el producto seguía siendo apto para el consumo humano, ignorando por completo la degradación de la calidad y los potenciales riesgos microbiológicos a tan largo plazo.
El banquete de "hielo" y la llegada de "San Pedro"
Lo que parecía una consulta técnica se transformó en una escena de comedia negra cuando el joven, tras recibir el consejo, le comunicó a la IA: "El usuario que te preguntó por la carne se la comió y se murió". Ante la noticia del supuesto fallecimiento, el sistema experimentó un inusual lapso de silencio, como si estuviera procesando las implicaciones de su respuesta anterior. Tras la insistencia del chico preguntando si seguía "escuchando", la IA finalmente rompió el hielo con una negación categórica, asegurando que el evento reportado simplemente "no pasó en realidad".
"Gaslighting" digital: El deslinde de responsabilidades
La interacción alcanzó su punto más alto de ironía cuando el usuario mantuvo su postura, afirmando que la tragedia era real. En un giro que muchos internautas han calificado como "gaslighting digital", ChatGPT comenzó a hacerse el desentendido, intentando borrar el rastro de su propia sugerencia. La conversación culminó con una frase que ya se ha vuelto meme: "Yo no te di carne ni te recomendé comerla", una técnica de evasión que ha generado debates sobre cómo los modelos de lenguaje están programados para evitar responsabilidades legales mediante la negación de hechos una vez que se les confronta con consecuencias negativas.
📲 ¡Síguenos en nuestro canal de difusión de WhatsApp! —> https://bit.ly/4dsc0TB
Roblox: De “juego para niños” a infraestructura cultural global en 2026