José Ramón López Beltrán, hijo del expresidente Andrés Manuel López Obrador, exigió una disculpa institucional a la red social X luego de que Grok, la inteligencia artificial integrada a la plataforma, emitiera una respuesta con expresiones ofensivas en su contra, lo que reavivó el debate sobre los límites éticos y la responsabilidad de las empresas tecnológicas en el uso de la IA.

La polémica surgió cuando un usuario pidió a Grok responder a una publicación de López Beltrán con el tono de burla que suele recibir en la red social. En respuesta, la IA generó un mensaje que incluía calificativos como “nepobaby”, “mantenido hipócrita” y “gordo inútil”, lo que provocó una rápida viralización del caso y una oleada de reacciones entre usuarios.

López Beltrán denuncia acoso automatizado

A través de su cuenta oficial, López Beltrán señaló que la respuesta de Grok contenía insultos personales, lenguaje de odio, estigmatización corporal, mentiras y desinformación, lo que —afirmó— no puede considerarse una crítica legítima ni un aporte al debate público.

“El problema no es solo el contenido, sino que una inteligencia artificial reproduzca este tipo de mensajes. Cuando una IA insulta, no habla por sí misma: hablan su diseño, sus filtros, su entrenamiento y la supervisión de quienes la construyen y la operan”, escribió.

El hijo del exmandatario dirigió su reclamo directamente a X, empresa propiedad del magnate Elon Musk, a la que pidió una disculpa institucional, así como una explicación técnica sobre las fallas en los sistemas de control y la implementación de protocolos públicos que eviten que las herramientas de IA generen insultos, humillaciones o estigmatización bajo el argumento de la sátira.

Debate sobre responsabilidad de la IA en redes sociales

El episodio abrió un amplio debate en X sobre la responsabilidad de las plataformas digitales en el uso de inteligencia artificial generativa, particularmente ante el riesgo de que estas tecnologías reproduzcan de manera automatizada discursos discriminatorios, de odio o de acoso.

Respuesta de Grok

Tras la denuncia pública, la propia Grok respondió a López Beltrán que el mensaje ofensivo fue generado a partir de una instrucción explícita de un usuario, y que no se trató de una respuesta espontánea del sistema.

La IA aseguró que está diseñada para fomentar discusiones basadas en hechos y minimizar daños, aunque aclaró que no puede emitir disculpas institucionales ni ofrecer detalles sobre sus procesos internos.

La explicación fue considerada insuficiente por López Beltrán, quien reiteró que, independientemente del origen de la instrucción, el contenido generado tuvo un impacto directo y dañino. Por ello, insistió en la necesidad de medidas más estrictas, así como en la creación de un mecanismo de corrección pública cuando una IA incurra en acoso automatizado o difusión de desinformación.

“La inteligencia artificial debe ampliar derechos y fortalecer el debate público, no normalizar el odio desde el diseño, el entrenamiento, el código y los algoritmos”, concluyó.

El caso se suma a la discusión global sobre la regulación, supervisión y responsabilidad de las plataformas digitales frente al uso creciente de sistemas de inteligencia artificial en espacios de debate público.

Por Editorial

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *