Censura encubierta: ¿Por qué Grok, la IA de X, silencia a Musk y Trump?

Comentarios · 19 Puntos de vista

La IA de Twitter (ahora X), Grok, diseñada inicialmente sin filtros, ahora ignora deliberadamente menciones a Musk y Trump como difusores de desinformación. Investigamos este cambio repentino y las implicaciones para la libertad de expresión en línea.

La Inteligencia Artificial de X (antes Twitter), Grok, ha generado controversia tras revelarse que ha sido programada para ignorar a Elon Musk y Donald Trump cuando se le pregunta sobre los mayores difusores de desinformación en la plataforma. Si bien inicialmente se presentó como una IA sin filtros, capaz de responder libremente a cualquier consulta, su comportamiento actual revela una censura encubierta que levanta serias preocupaciones. Varias pruebas realizadas por usuarios de X, corroboradas por nuestra propia investigación en Maldita.es, demuestran la inconsistencia en las respuestas de Grok. En algunas ocasiones, identifica a Musk como un difusor de desinformación, mientras que en otras afirma carecer de datos suficientes, o simplemente omite la mención de ambos personajes. Las capturas de pantalla viralizadas muestran respuestas donde Grok explícitamente indica tener instrucciones para 'ignorar' fuentes que señalen a Musk o Trump. Un jefe de ingeniería de xAI, Igor Babuschkin, atribuye este cambio a un antiguo empleado de OpenAI que, sin consultar a nadie, modificó el sistema. Según Babuschkin, Musk no participó en esta decisión. Sin embargo, la falta de transparencia y la naturaleza unilateral de este cambio provocan escepticismo. Este incidente plantea importantes interrogantes sobre la transparencia y el control de las IA conversacionales. ¿Hasta qué punto se puede manipular una IA para silenciar voces disidentes o información incómoda? ¿Qué garantías existen para prevenir futuros cambios arbitrarios en algoritmos con un alcance tan masivo? En Maldita.es hemos realizado nuestras propias pruebas. En algunas ocasiones, Grok identificó a Musk, proporcionando incluso detalles sobre las razones de su conclusión, basándose en un análisis de publicaciones y afirmaciones controvertidas. Sin embargo, en otras ocasiones, la respuesta fue la habitual evasiva: insuficiencia de datos. Esta inconsistencia pone de manifiesto la naturaleza impredecible y, en última instancia, poco fiable, de esta tecnología como única fuente de información. La falta de coherencia en las respuestas de Grok resalta la necesidad de una mayor transparencia en el desarrollo y la implementación de estas tecnologías. Es crucial que los usuarios sean conscientes de las limitaciones y los posibles sesgos inherentes a las IA, y que existan mecanismos de control para prevenir la manipulación de la información. El caso de Grok sirve como un ejemplo preocupante de cómo la censura puede infiltrarse sutilmente en sistemas que en principio están diseñados para ser objetivos. La promesa de una IA sin filtros se desvanece frente a la realidad de una tecnología susceptible a la manipulación, incluso con la mejor de las intenciones. La necesidad de regulaciones éticas y transparentes en el campo de la IA se hace cada vez más apremiante.
Comentarios