El Bosque en contexto

¿Democracia o control algorítmico? Mark Coeckelbergh advierte sobre los riesgos políticos de la inteligencia artificial

Autor: Comunicaciones

20 de Agosto de 2025

Tiempo de lectura: 3 minutos

mark-coeckelbergh-inteligencia-artificial-democracia-universidad-elbosque
Durante el Seminario Internacional de Bioética de la Universidad El Bosque, el filósofo belga llamó a fortalecer una ciudadanía crítica ante el poder tecnológico.

En tiempos en que hablar de democracia parece más una aspiración que una realidad consolidada, el filósofo belga Mark Coeckelbergh invitó a mirar de frente la inteligencia artificial (IA) y preguntarse: ¿puede esta tecnología contribuir a revitalizar la vida democrática o, por el contrario, está alimentando nuevas formas de autoritarismo? La pregunta fue el eje de su conferencia AI Politics: Democracy in Danger, presentada durante el XXXI Seminario Internacional de Bioética de la Universidad El Bosque.

Coeckelbergh es catedrático de Filosofía de los Medios y la Tecnología en la Universidad de Viena, miembro de diversas entidades que asesoran la formulación de políticas sobre IA y robótica, y autor de más de veinte libros sobre filosofía de la tecnología.

Con un enfoque que entrelaza filosofía política, ética de la tecnología y pensamiento crítico, el profesor Coeckelbergh planteó que la bioética no puede limitarse a decisiones individuales ni al ámbito clínico, sino que debe asumir con urgencia los dilemas colectivos que emergen de la transformación digital. El auge de los sistemas algorítmicos, advirtió, no solo plantea desafíos regulatorios, sino que reconfigura las condiciones mismas del autogobierno democrático: afecta la confianza, el debate público, la distribución del poder y el acceso a la verdad.

Te puede interesar: Investigación revela brechas en cuidados paliativos en zonas rurales

Desde esta perspectiva, abordó temas como el sesgo algorítmico, la manipulación informativa, la concentración del poder tecnológico y la erosión de valores como la fraternidad y la libertad de expresión. A lo largo de su charla, insistió en que la democracia no puede reducirse al acto de votar: requiere un espacio compartido, valores comunes y la posibilidad real de deliberar en condiciones de equidad. Y en ese proceso, tanto la educación como la filosofía política tienen un papel decisivo.

Democracia, tecnología y poder: entrevista con Mark Coeckelbergh

Durante su visita, conversamos brevemente con el profesor Coeckelbergh sobre el impacto de la inteligencia artificial en la democracia, la soberanía digital, los derechos ciudadanos y el rol de la bioética en la construcción de futuros tecnológicos más justos.  

Pregunta: En un contexto donde la inteligencia artificial influye cada vez más en la esfera política, ¿qué principios democráticos considera más amenazados y qué tipo de gobernanza internacional podría protegerlos sin que la IA se convierta en un instrumento de control autoritario?

Respuesta: Creo que algunos de los principios que están en riesgo —y que considero fundamentales— son, por ejemplo, la libertad de expresión. Hoy este principio está siendo fuertemente desafiado, tanto por gobiernos que lo restringen como por el ambiente que se ha creado en redes sociales, un entorno hostil en el que muchas personas temen expresar lo que piensan. No es un espacio tolerante ni amigable, lo que dificulta enormemente la posibilidad de tener una conversación democrática. Y para que la democracia funcione, necesitamos hablar entre nosotros, comunicarnos, escucharnos mutuamente. Por eso, este es un gran problema.

coeckelbergh-entrevista-inteligencia-artificial-universidad-elbosque

Esto también se relaciona con otro principio que considero muy amenazado: la fraternidad. La solidaridad se debilita en una sociedad marcada por grandes desigualdades entre ricos y pobres. Si la inteligencia artificial impacta esa brecha, puede incluso ampliarla, concentrando aún más poder y beneficios en manos de unos pocos, mientras que la mayoría queda sin poder, obligada a entregar sus datos y vulnerable a la manipulación. Estas son algunas de las formas en las que la IA está afectando principios esenciales para la democracia.

En cuanto a la gobernanza global, considero importante no asumir que esta debe ser equivalente a un Estado mundial. Si tuviéramos un Estado global similar a un Estado nacional, y este no fuera democrático, estaríamos ante un serio problema. La clave está en diseñar una gobernanza global que dé espacio a las diferencias y a los enfoques regionales, que contemple una participación democrática real en su estructura y decisiones. No se trata solo de que expertos de organizaciones internacionales decidan sobre los principios o los marcos regulatorios; este proceso debe democratizarse, ser más flexible y respetuoso de la diversidad.

Necesitamos, sin duda, una gobernanza global, porque los datos cruzan fronteras y la inteligencia artificial está presente en todo el mundo. Pero debemos pensar cómo lograr un régimen que equilibre la existencia de algunas reglas exigibles —como lo hace un Estado nacional— con la necesidad de respetar las particularidades regionales. Propongo, por tanto, establecer un conjunto mínimo de reglas globales, exigibles y basadas en principios fundamentales como los derechos humanos y la dignidad. Al mismo tiempo, debe haber espacio para la interpretación local y para enfoques diversos en distintas regiones del mundo.

P: La concentración de datos y algoritmos en manos de unas pocas corporaciones plantea riesgos para la soberanía de los Estados y la autonomía de comunidades más pequeñas. ¿Qué estrategias considera viables para recuperar capacidad de decisión sin frenar la innovación, y cree que esto puede lograrse solo con regulación nacional o se requiere un marco global?

R: Complementando lo anterior, es fundamental reflexionar sobre el papel que juegan las grandes corporaciones en el desarrollo de la inteligencia artificial. Hoy, empresas con sede en Estados Unidos están tomando decisiones cruciales sobre nuestro futuro tecnológico, mientras que en regiones como Europa o Colombia tenemos muy poca capacidad para incidir en cómo se diseñan estas tecnologías o qué tipo de IA llega a nuestras sociedades. Esto nos vuelve dependientes y limita profundamente nuestra soberanía tecnológica.

También destacamos: Nueva Ley de salud mental prioriza el enfoque biopsicosocial

Ante este panorama, además de promover marcos regulatorios a nivel nacional e internacional, creo que es indispensable que dentro de las propias empresas se integren valores éticos y principios democráticos. No basta con legislar desde afuera; también es necesario transformar desde dentro. Las compañías privadas deben asumir un rol activo y responsable en la construcción de tecnologías más justas, y esto requiere colaboración entre actores públicos y privados.

En definitiva, no existe una única solución. Necesitamos múltiples estrategias y la participación de diversos sectores que impulsen cambios en una dirección más democrática. Solo así podremos recuperar capacidad de decisión sin frenar la innovación.

P: La IA permite influir de manera masiva y personalizada en la opinión pública. ¿Cómo podemos, como sociedades democráticas, diferenciar la información auténtica de la manipulación algorítmica y qué derechos digitales fundamentales deberían garantizarse para proteger a la ciudadanía frente al uso político de estas tecnologías?

R: Este es un problema muy importante y, al mismo tiempo, difícil de abordar. Vivimos en entornos informativos donde cada vez resulta más complejo distinguir lo verdadero de lo falso. Y no se trata únicamente de información incorrecta, sino también de lo que podríamos llamar bullshit: contenido sin sentido que, sin embargo, suena convincente y creíble. Los modelos de lenguaje (LLMs) generan este tipo de material con una apariencia de veracidad que puede inducir fácilmente al error.

coeckelbergh-seminario-bioetica-2025-universidad-elbosque-filosofia-tecnologia

Este contenido no siempre es completamente falso, pero puede carecer de sentido o desviar la atención en direcciones equívocas. Y eso es algo muy difícil de manejar.

Creo que, en parte, podemos trabajar en mejorar estas tecnologías, hacerlas más responsables. Pero siempre existirá un margen de error y de bullshitting inherente a estos modelos. Por eso, necesitamos también educar a las personas para que reconozcan las limitaciones de estas herramientas y las utilicen con mayor criterio.

Mucho de lo que sucede hoy no es responsabilidad exclusiva de las empresas —aunque ciertamente deberían asumir un rol más activo—, sino también de los usuarios. Las personas necesitan apoyo para relacionarse con la tecnología de un modo que las empodere, que contribuya a una vida buena, y no que las convierta en víctimas de sistemas diseñados desde una lógica corporativa.

Además del plano informativo, el profesor Coeckelbergh advierte sobre los riesgos de la IA cuando interviene en sectores sensibles como la salud, el medioambiente o la seguridad, y cómo esto puede derivar en nuevas formas de control social.

P: Cuando la IA participa en decisiones que afectan la salud, la seguridad o el medioambiente, ¿cómo evitar que la biopolítica tecnológica derive en una forma de control social? ¿Qué responsabilidades éticas deberían asumir los países líderes en IA frente a aquellos con menor desarrollo tecnológico, y cómo puede la bioética servir de puente entre la teoría política y la regulación práctica?

R: Ya en el trabajo de Michel Foucault se observa cómo, en el siglo XIX, los datos se utilizaron para controlar a las poblaciones, un fenómeno que él denominó biopolítica. Hoy nos enfrentamos a una nueva forma de ese fenómeno: una tecnobiopolítica o biopolítica de la inteligencia artificial, en la que esta tecnología se emplea también como instrumento de control social. Y podemos ver con claridad cómo funciona.

Durante la pandemia, por ejemplo, la IA fue utilizada para monitorear a la población. Por supuesto, la intención era responder a una emergencia sanitaria. Pero resulta preocupante ver cómo estas tecnologías pueden convertirse rápidamente en herramientas funcionales para establecer sistemas de vigilancia extremadamente estrictos.

Te puede interesar: Ordenamiento territorial en Colombia: ¿qué estamos haciendo mal?

Debemos evitar absolutamente este tipo de gestión poblacional basada en el monitoreo constante. Y, sobre todo, debemos garantizar mecanismos de rendición de cuentas (accountability). Durante la pandemia quedó claro que no siempre sabíamos quién tomaba las decisiones: algunos expertos tras una pantalla, algunos políticos detrás del telón. Esto no es aceptable en una democracia.

Es fundamental asegurar la transparencia y exigir rendición de cuentas en todas las decisiones que afectan al conjunto de la población. Solo así podremos impedir que la biopolítica tecnológica derive en formas de control autoritario y mantener el uso de la inteligencia artificial dentro de los marcos éticos y democráticos necesarios.

P: ¿Qué modelos de participación ciudadana podrían garantizar que las decisiones sobre el desarrollo y uso de la IA respondan al interés público? ¿Podría imaginar una IA que actúe como mediadora para fortalecer el diálogo democrático, y cómo visualiza el equilibrio entre innovación tecnológica y preservación de valores democráticos en las próximas dos décadas?

R: Existen diversas formas en las que la inteligencia artificial podría utilizarse para fortalecer la deliberación democrática en asambleas ciudadanas y en procesos participativos. Esta tecnología puede ayudar a clarificar las posturas de las personas, a buscar consensos y a facilitar la toma de decisiones. Por ejemplo, puede ofrecer información, traducir contenidos y realizar múltiples tareas de apoyo.

Sin embargo, debemos ser plenamente conscientes de los límites de esta tecnología. Incluso en estos espacios, seguimos necesitando a los seres humanos. La figura del mediador humano sigue siendo esencial.

Consulta más sobre: “Los colombianos no están fugados”: una visión desde la diáspora científica

Además, es fundamental que cualquier uso de la IA esté integrado en procedimientos que sean auténticamente democráticos, y que no se convierta en una herramienta para formas de control tecno-autoritario. Esto me preocupa especialmente hoy. Creo que hay tendencias autoritarias e incluso fascistas que están ganando terreno, y debemos actuar decididamente para fortalecer la democracia y mantenerla sólida.

También es necesario abrir espacio para formas de pensamiento más pausadas y reflexivas, no solo sobre la inteligencia artificial, sino sobre nuestra relación con la tecnología en general. Necesitamos encontrar formas sabias de relacionarnos con la tecnología.

Reflexiones desde el Seminario Internacional de Bioética

conferencia-ai-politics-democracy-in-danger-universidad-elbosque

La participación de Mark Coeckelbergh fue uno de los momentos centrales del XXXI Seminario Internacional de Bioética, organizado por el Departamento de Bioética de nuestra Universidad bajo el lema Las disrupciones contemporáneas de las tecnologías: bioética y biopolítica. Durante tres jornadas, el evento reunió a académicos e investigadores de Colombia, América Latina, Europa y Estados Unidos para reflexionar sobre los desafíos éticos y políticos de tecnologías como la inteligencia artificial, las neurotecnologías, los robots sociales, la edición genética y la tecnociencia ambiental.

Entre los conferencistas invitados se destacaron Flavia Costa (Universidad de Buenos Aires), Rafael Yuste (Reales Academias de España), Javier Echeverría (Academia Vasca de Ciencias), Carlos Montemayor (San Francisco State University), Jorge Linares (UNAM), entre otros. Las ponencias abordaron temas como los neuroderechos, el biohacking, las plataformas biotecnológicas, las distopías transhumanistas, la cronoética y los modelos alternativos de gobernanza digital.

Más allá de los enfoques disciplinares, el Seminario reafirmó la necesidad de ampliar el campo de la bioética hacia una ética pública capaz de dialogar con los cambios sociotécnicos contemporáneos, desde una mirada plural, crítica y comprometida con el bien común. 

Compartir noticia

Más Noticias

Te puede interesar

  • /sites/default/files/2025-04/Inscripciones.gif
    main_menu_inscripcions
    card-gif-sub-menu
  • /sites/default/files/2025-04/Programas.gif
    main_menu_programs
    card-gif-sub-menu
  • /sites/default/files/2025-04/Facultad.gif
    main_menu_faculties
    card-gif-sub-menu
  • /sites/default/files/2025-04/Vida%20Universitaria.gif
    main_menu_univers
    card-gif-sub-menu
  • /sites/default/files/2025-04/Nuestro%20Bosque.gif
    main_menu_ub
    card-gif-sub-menu
  • /sites/default/files/2025-04/Investigaciones.gif
    main_menu_investigation
    card-gif-sub-menu