TOLUCA 98.9 FM | ATLACOMULCO 104.7 FM | VALLE DE BRAVO 93.5 FM | TULANCINGO 97.1 FM | QUERÉTARO 103.1 FM | SAN JUAN DEL RÍO 93.1 FM | GUADALAJARA 1510 AM | LA PAZ 95.1 FM | LOS CABOS 91.5 FM | CDMX | PUERTO VALLARTA 97.5 FM | SAN LUIS POTOSÍ 620 AM | ZACATECAS 104.9 FM
InicioTecnologíaGrok, el asistente de X, bajo críticas por sus errores

Grok, el asistente de X, bajo críticas por sus errores

El uso de Grok, el asistente de inteligencia artificial de X, se ha multiplicado en los últimos meses. Muchos usuarios lo utilizan como fuente de información y herramienta de verificación, aunque expertos advierten que presenta una alta tasa de errores y limitaciones para contrastar hechos.

Errores que se hacen virales

Un caso reciente ilustra el problema. Un usuario compartió en X una fotografía de la familia Burroughs, tomada en 1936 por Walker Evans en Alabama, como si retratara la vida en la España franquista.

Grok, el asistente de X, bajo críticas por sus errores

Otro internauta pidió a Grok verificar la imagen, y la IA aseguró correctamente que pertenecía a una familia de aparceros en Estados Unidos. Sin embargo, una historiadora demostró con fuentes originales que la fotografía viralizada era, en realidad, de Málaga en 1953.

Pese a la evidencia, Grok insistió en su primera versión y tardó más de dos horas en reconocer el error. Para entonces, el tuit con información falsa ya acumulaba millones de visualizaciones, frente a las escasas interacciones del desmentido.

“Los chatbots basados en IA buscan generar un texto convincente; que sea cierto o verdadero no importa”, explicó a EFE Verifica Javi Cantón, investigador en la Universidad Internacional de La Rioja y experto en desinformación.

Sesgos en el entrenamiento

De acuerdo con una investigación de Business Insider, Grok fue entrenado con instrucciones diseñadas para diferenciarlo de los llamados “chatbots wokes” como ChatGPT. Extrabajadores de xAI, la compañía de Elon Musk, aseguraron que el proceso parecía dar prioridad a creencias de derecha, lo que incrementa sus sesgos ideológicos.

Grok, el asistente de X, bajo críticas por sus errores

Alta tasa de fallos

Un estudio publicado en la Columbia Journalism Review evaluó ocho herramientas de inteligencia artificial y concluyó que Grok respondió incorrectamente al 94% de las preguntas planteadas.

La propia empresa de Musk advierte en su página que, al estar entrenado con información pública, sus respuestas pueden contener datos inexactos o engañosos.

Otro caso polémico

La polémica también alcanzó al escritor Antonio Muñoz Molina. En agosto, un usuario preguntó a Grok por el reloj que llevaba el autor en una entrevista con El País. La IA aseguró que se trataba de un Rolex Datejust valorado entre 10.000 y 15.000 euros.

En realidad, el reloj era un Festina, pero la respuesta errónea —que llegó a más de 700 mil visualizaciones— derivó en una ola de insultos contra el escritor.

Advertencia de expertos

Cantón advierte que estas herramientas “están hechas para darnos la razón y adularnos”, lo que implica un riesgo:

“No podemos fiarnos al 100% de lo que nos dicen. Su uso para verificar contenidos puede reforzar cámaras de eco”.

LO MÁS RECIENTE

Lo Más Relevante

México exige a EU aclarar muerte de migrante en ICE

La presidenta Claudia Sheinbaum informó que el gobierno de México envió una nota diplomática...

Sheinbaum: México siempre apostará por la paz

La presidenta de México, Claudia Sheinbaum, aseguró que el país respaldará todos los esfuerzos...

Britney Spears es arrestada por conducir bajo alcohol

La cantante estadounidense Britney Spears fue arrestada en California por presuntamente conducir bajo la...