Autor: dagorret

  • Linux ganó: por qué el software libre gobierna el mundo sin estar en tu escritorio

    Linux ganó: por qué el software libre gobierna el mundo sin estar en tu escritorio

    Reflexión de miércoles

    El software ya no se compra: se alquila, se actualiza, se vigila. Vivimos en una economía donde los sistemas operativos se transformaron en servicios y los usuarios en fuentes de datos. Pero mientras Windows, macOS, Android e iOS dominan la superficie visible, otro sistema gobierna silenciosamente el corazón del mundo digital.

    Del producto al servicio: cómo el capitalismo digital cambió las reglas del mercado


    Durante décadas creímos que el éxito tecnológico se medía por la cantidad de pantallas en las que aparecía un logotipo. Pero el poder real no está en la visibilidad, sino en la infraestructura. Linux, nacido como un proyecto comunitario y gratuito, no conquistó el escritorio, pero hoy sostiene el funcionamiento del planeta. Es el sistema operativo de Internet, de la nube, de los servidores, de los teléfonos, de las máquinas industriales y de los dispositivos inteligentes que nos rodean. Ganó donde los demás ni siquiera miraban.


    1. Del software como producto al servicio como negocio

    El capitalismo digital cambió el modo en que concebimos el software. Durante el siglo XX, los sistemas operativos eran productos: se compraban, se instalaban y duraban hasta que quedaban obsoletos. Pero a medida que la red se volvió omnipresente, el negocio se desplazó hacia el servicio continuo. Hoy no pagamos por un sistema, sino por su actualización, sincronización y permanencia.

    La vieja relación de oferta y demanda se rompió. Jeremy Rifkin ya lo había anticipado en La era del acceso: el capitalismo contemporáneo ya no vende bienes, sino experiencias sostenidas. Windows, macOS, Android y iOS no son realmente sistemas operativos, sino portales a ecosistemas cerrados donde cada acción se monetiza. El software se volvió una suscripción; el usuario, un flujo de ingresos recurrentes.

    Este cambio alteró los fundamentos del mercado. El producto dejó de tener un precio único y pasó a generar rentas constantes. Y donde hay renta, hay vigilancia. Como explicó Shoshana Zuboff, en el capitalismo de la vigilancia el valor no surge de la venta directa, sino de la captura y predicción de la conducta. El software ya no se limita a servir: observa, mide y anticipa.


    2. El triunfo invisible de Linux

    Mientras las grandes corporaciones transformaban el software en servicio, Linux seguía expandiéndose en silencio. Según W3Techs y Netcraft (2024):

    • El 96% de los servidores públicos del mundo corren Linux.
    • El 100% de las 500 supercomputadoras más potentes usan Linux.
    • El 70% de los smartphones lo utilizan mediante Android.
    • El 80% de los dispositivos embebidos (routers, autos, televisores) ejecutan variantes de Linux.
    • Y aunque apenas un 3% de los escritorios lo usan, controla el 99% de la infraestructura que los conecta.

    Su victoria no fue comercial, sino estructural. Linux no necesitó conquistar el escritorio porque ya dominaba todo lo demás: los cimientos físicos y lógicos del capitalismo digital. En un mundo interconectado, el poder no está en la interfaz, sino en el back-end. Y ahí, Linux reina sin oposición.

    Eric S. Raymond lo explicó en su ensayo The Cathedral and the Bazaar: el software libre prospera porque distribuye la inteligencia y la innovación entre miles de colaboradores. No necesita jerarquía ni control centralizado; su ventaja es la cooperación. Mientras los sistemas propietarios defienden su código, Linux libera el conocimiento como recurso común. Esa apertura le permitió evolucionar más rápido que cualquier producto cerrado.


    3. El mercado que se volvió red

    La economía digital ya no responde a la lógica clásica de oferta y demanda. En el siglo XXI, lo que importa no es cuántas licencias se venden, sino cuántos usuarios permanecen conectados. El valor se mide en retención, no en transacción. Es el paso de la economía del producto a la economía de la plataforma.

    Manuel Castells lo sintetizó en La era de la información: las redes son la nueva estructura del poder. Las corporaciones tecnológicas no compiten por el precio, sino por la capacidad de crear entornos cerrados donde el usuario se convierte en nodo cautivo. Apple no vende teléfonos, vende continuidad. Microsoft no vende sistemas, vende integración. Google no vende Android, vende el acceso a tu vida digital.

    En este contexto, Linux representa lo opuesto: un sistema que no captura, no suscribe, no cobra. Su valor radica en el uso libre, en la cooperación descentralizada, en la posibilidad de modificar sin pedir permiso. Y esa libertad, paradójicamente, es lo que le permitió conquistar los espacios donde el control económico es más estricto: los centros de datos, los servidores empresariales, las redes globales.


    4. Capitalismo de plataformas y privatización del entorno digital

    Shoshana Zuboff describe este nuevo orden como un capitalismo que coloniza la experiencia humana. Las plataformas transforman cada gesto en un dato y cada interacción en una oportunidad de predicción. En ese mundo, el software libre aparece como una anomalía política: una zona autónoma de cooperación no mercantil.

    Pero incluso esa autonomía tiene límites. Los gigantes de la nube —Amazon, Google, Microsoft— basan su infraestructura en Linux, pero lo integran en un modelo de negocio cerrado. Es una paradoja: el código libre alimenta sistemas que luego privatizan sus beneficios. El ideal de Richard Stallman —un software controlado por sus usuarios— convive con un capitalismo que usa Linux como herramienta de dominio.

    El software libre ganó técnicamente, pero el capitalismo ganó económicamente. Sin embargo, esa tensión no invalida la victoria de Linux: demuestra que la cooperación puede sostener la infraestructura de un mundo competitivo. La innovación ya no depende del mercado, sino de la comunidad.


    5. El fin del modelo clásico de oferta y demanda

    El modelo económico del siglo XX se basaba en un equilibrio entre productores y consumidores. Hoy, esa frontera se disolvió. Cada usuario produce datos que retroalimentan los servicios que utiliza. Somos al mismo tiempo clientes y materia prima. En esta economía circular del dato, el software libre introduce una excepción: permite usar sin ser usado.

    La vieja noción de mercado —donde el precio reflejaba el valor— se quebró. En su lugar, aparece una economía de la dependencia continua: actualizaciones automáticas, servicios en la nube, suscripciones ineludibles. Linux, en cambio, sigue ofreciendo un modelo basado en la autonomía y la transparencia. No tiene precio porque no tiene propietario.

    Yochai Benkler lo llamó producción entre pares: una forma de creación colectiva donde la motivación no es el lucro, sino el reconocimiento y el aprendizaje. Ese paradigma, marginal en los noventa, es hoy el que sostiene gran parte del ecosistema digital. El éxito de Linux demuestra que la colaboración abierta no solo es ética, sino económicamente viable.


    6. La paradoja del software libre

    Linux triunfó al desaparecer. Su invisibilidad es su fuerza. Está en el centro de la red, pero fuera del imaginario público. No tiene campañas, ni marketing, ni rostro corporativo. Su emblema —un pingüino sonriente— simboliza esa extraña mezcla de potencia y modestia: un poder que no necesita imponerse.

    En un mundo donde todo se alquila, Linux sigue siendo de todos. En un entorno de control, sigue ofreciendo libertad. En un capitalismo que privatiza la infraestructura del conocimiento, Linux permanece como un recordatorio de que otra economía es posible: una basada en la cooperación, no en la propiedad.


    Conclusión

    El software libre no derrotó a Microsoft ni a Apple en el terreno visible. Pero mientras ellos compiten por la superficie, Linux sostiene el subsuelo. Es el latido técnico de Internet, la respiración de los dispositivos, la condición silenciosa del mundo digital. Su triunfo no se mide en usuarios, sino en presencia.

    El capitalismo transformó el software en servicio y al usuario en recurso. Linux respondió con una lógica inversa: convertir el conocimiento en bien común y la cooperación en motor de progreso. No necesitó venderse, porque todos terminaron usándolo.

    “El código libre no conquistó las pantallas: conquistó la respiración de las máquinas.”


    Bibliografía orientativa

    • Benkler, Yochai. The Wealth of Networks. Yale University Press, 2006.
    • Castells, Manuel. La era de la información. Alianza Editorial, 1996.
    • Raymond, Eric S. The Cathedral and the Bazaar. O’Reilly Media, 1999.
    • Rifkin, Jeremy. La era del acceso. Paidós, 2000.
    • Stallman, Richard. Free Software, Free Society. GNU Press, 2002.
    • Zuboff, Shoshana. The Age of Surveillance Capitalism. PublicAffairs, 2019.
    • Lessig, Lawrence. Code and Other Laws of Cyberspace. Basic Books, 1999.
  • Karin Knorr-Cetina y las Arenas Transepistémicas de Investigación

    Karin Knorr-Cetina y las Arenas Transepistémicas de Investigación

    De la crítica al modelo económico de la ciencia a la sociología del conocimiento contemporáneo


    1. Contexto y obra

    La socióloga austríaca Karin Knorr-Cetina, profesora en la Universidad de Chicago y referente de los Science and Technology Studies (STS), reformuló profundamente la manera en que entendemos la práctica científica.

    Su trabajo más influyente en esta línea es el artículo:

    Knorr-Cetina, Karin (1982). “Scientific Communities or Transepistemic Arenas of Research? A Critique of Quasi-Economic Models of Science.”
    Social Studies of Science, 12(1), 101–130.

    En él introduce el concepto de arenas transepistémicas de investigación, en oposición a la idea tradicional de comunidad científica, y desarrolla una crítica a los modelos cuasi-económicos de la ciencia inspirados en Pierre Bourdieu.


    2. Crítica al modelo económico de Bourdieu

    Knorr-Cetina observa que los modelos de Bourdieu —que interpretan la ciencia como un campo de competencia simbólica, donde los investigadores luchan por prestigio y capital científico— tienden a simplificar en exceso la dinámica real de la investigación.

    A su juicio, el enfoque bourdieusiano:

    • Exagera la analogía entre ciencia y mercado.
    • Supone una estructura demasiado cerrada y autorreferencial.
    • Ignora la diversidad de actores, contextos y mediaciones no estrictamente científicas.

    Su propuesta busca superar esa mirada “cuasi-económica” y mostrar que la ciencia no es una economía simbólica, sino una red viva de prácticas, mediaciones y relaciones.


    3. De la comunidad científica a la arena transepistémica

    Frente a la noción clásica de comunidad científica (Merton), Knorr-Cetina introduce la idea de arena transepistémica. La investigación científica, sostiene, no ocurre dentro de comunidades cerradas, sino en espacios abiertos, dinámicos y heterogéneos donde confluyen actores con distintos intereses y niveles de experticia.

    Una arena transepistémica incluye:

    • Científicos, técnicos, instituciones, organismos de financiamiento, reguladores y empresas.
    • Objetos experimentales, instrumentos, materiales y tecnologías.
    • Intereses epistémicos y no epistémicos (económicos, políticos, culturales).

    La ciencia, por tanto, es una práctica interdependiente y distribuida, donde la validación del conocimiento se negocia entre actores diversos.


    4. Comparación con la noción bourdieusiana de campo

    AspectoBourdieu (campo científico)Knorr-Cetina (arena transepistémica)
    Metáfora centralCampo, competencia simbólicaArena, red de colaboración y negociación
    Unidad de análisisCampo relativamente autónomoRed abierta de actores humanos y no humanos
    Lógica dominanteLucha por capital simbólico y prestigioCirculación, mediación y coproducción
    Visión de la cienciaEstructura de poder simbólicoSistema de prácticas relacionales

    Knorr-Cetina no descarta la idea de “campo”, pero la considera insuficiente para describir la complejidad empírica de la investigación contemporánea. Propone reemplazar la competencia simbólica por una lógica de cooperación y coproducción de saberes.


    5. Alcance y desarrollo posterior

    En obras posteriores, como Epistemic Cultures: How the Sciences Make Knowledge (1999), Knorr-Cetina amplía su tesis mostrando que existen culturas epistémicas diferenciadas entre disciplinas —por ejemplo, la física de alta energía frente a la biología molecular—, cada una con sus propios objetos, instrumentos, tiempos y formas de validar conocimiento.

    Con ello consolida una visión relacional y práctica del saber científico, centrada en los procesos más que en las estructuras.


    6. Valor teórico y metodológico

    El concepto de arena transepistémica inaugura un enfoque que:

    • Desplaza el análisis desde las instituciones hacia las redes de producción de conocimiento.
    • Visibiliza la heterogeneidad epistémica y la copresencia de actores no científicos.
    • Propone una epistemología no individualista ni economicista, sensible a la mediación técnica, material y organizacional.
    • Anticipa el giro hacia la ciencia distribuida y los regímenes globales de conocimiento.

    7. Legado contemporáneo de Knorr-Cetina

    a. Inspiración para los Science and Technology Studies (STS)

    El concepto de arena transepistémica fue precursor de enfoques como la actor-network theory (Latour, Callon) y de los estudios sobre infraestructuras epistémicas. Hoy se lo emplea para analizar cómo las redes globales de investigación y los sistemas digitales configuran nuevas formas de producción de saber.

    b. Apertura hacia la sociología global del conocimiento

    Knorr-Cetina influyó en autores que estudian la circulación transnacional del conocimiento, especialmente en políticas científicas y cooperación internacional. La noción de arenas epistémicas transnacionales se usa hoy para describir la interconexión entre actores públicos, privados y académicos.

    c. Relevancia metodológica

    Su legado no es sólo conceptual, sino metodológico: enseñó a observar la ciencia como práctica situada y distribuida, atendiendo a los objetos, instrumentos e interacciones que hacen posible el conocimiento.


    “El conocimiento no se produce en soledad, sino en la intersección de mundos epistémicos distintos.”
    Karin Knorr-Cetina (1982)


    Serie: Sociología del conocimiento científico
    Próximo artículo: Latour, Callon y la traducción de lo social en la ciencia

  • Cómo instalar Arch Linux en 2025 junto a Windows (dual boot en Dell Inspiron con Intel Iris Xe)

    Cómo instalar Arch Linux en 2025 junto a Windows (dual boot en Dell Inspiron con Intel Iris Xe)

    Arch Linux sigue siendo, en 2025, una de las distribuciones más potentes, flexibles y puras del ecosistema GNU/Linux. En esta guía te explico cómo instalar Arch Linux en una Dell Inspiron con gráfica Intel Iris Xe, conviviendo con Windows sin perder tus datos ni tu instalación actual. Es el enfoque ideal si necesitás mantener Windows para programas específicos de la universidad o del trabajo, pero querés usar Linux como entorno principal de desarrollo.

    🧭 Antes de comenzar

    Este procedimiento instala Arch Linux en modo UEFI junto a Windows 10 u 11. Es fundamental:

    • Realizar una copia de seguridad completa de tus datos.
    • Verificar que Windows usa GPT + UEFI (lo normal en equipos modernos).
    • Reducir el volumen principal desde Windows, dejando al menos 50 GB libres sin asignar.
    • Desactivar Secure Boot en el BIOS/UEFI o configurarlo en modo permisivo.
    • Conservar Windows: no borraremos su partición ni su arranque.

    💿 Preparar el medio de instalación

    • Descargá la ISO más reciente de Arch Linux desde el sitio oficial.
    • Creá un USB booteable con Ventoy o Rufus (en modo GPT/UEFI).
    • Conectá el USB, reiniciá y elegí “Boot from UEFI USB” en el menú de inicio de tu Dell.

    ⚙️ Instalación paso a paso

    Una vez dentro del entorno live:

    1. Conectate a Internet (por cable o Wi-Fi con iwctl).
    2. Verificá el disco: lsblk
    3. Creá las particiones necesarias (manteniendo intacta la de Windows):
      • / (root): ext4, al menos 30 GB.
      • /home (opcional): para tus datos personales.
      • swapfile en lugar de partición swap (se configurará luego).
    4. Montá las particiones:
      mount /dev/nvme0n1pX /mnt
      mount --mkdir /dev/nvme0n1pY /mnt/boot/efi
    5. Instalá el sistema base:
      pacstrap /mnt base linux linux-firmware intel-ucode networkmanager
    6. Generá el archivo fstab:
      genfstab -U /mnt >> /mnt/etc/fstab
    7. Entrá al nuevo sistema:
      arch-chroot /mnt

    🧩 Configuración del sistema

    • Configurá el huso horario:
      ln -sf /usr/share/zoneinfo/America/Argentina/Cordoba /etc/localtime
      hwclock --systohc
    • Editá /etc/locale.gen y descomentá es_AR.UTF-8 UTF-8 y en_US.UTF-8 UTF-8.
    • Generá el locale:
      locale-gen
    • Definí un nombre de host:
      echo "archinspiron" > /etc/hostname

    🔧 Instalación del gestor de arranque (dual boot)

    Instalá GRUB con soporte UEFI y detección automática de Windows:

    pacman -S grub efibootmgr os-prober
    grub-install --target=x86_64-efi --efi-directory=/boot/efi --bootloader-id=Arch
    os-prober
    grub-mkconfig -o /boot/grub/grub.cfg

    Al reiniciar, GRUB mostrará ambas opciones: Arch Linux y Windows.

    🖥️ Primer arranque y entorno gráfico

    Activá la red y el entorno de escritorio:

    systemctl enable --now NetworkManager
    pacman -S gnome gdm
    systemctl enable --now gdm

    Para tu GPU Intel Iris Xe:

    pacman -S mesa vulkan-intel intel-media-driver

    GNOME detectará automáticamente la aceleración por hardware.

    🤝 Integración con Windows

    • Instalá soporte NTFS: pacman -S ntfs-3g
    • Sincronizá el reloj:
      timedatectl set-local-rtc 1
    • Podés montar tus particiones NTFS en /mnt/windows o crear una dedicada para compartir archivos.

    🚀 Postinstalación y mantenimiento

    • Creá tu usuario y asignale permisos sudo.
    • Instalá el AUR helper yay para paquetes extra.
    • Actualizá los mirrors:
      pacman -S reflector
      reflector --latest 10 --sort rate --save /etc/pacman.d/mirrorlist
    • Mantené tu sistema con:
      sudo pacman -Syu

    🧩 Conclusión

    Instalar Arch Linux junto a Windows no es solo un ejercicio técnico: es una manera de equilibrar libertad y compatibilidad. Windows queda ahí para las herramientas que la universidad o algunos entornos privativos aún exigen; pero Arch es tu espacio de control total. Configurado con GNOME, tu Inspiron se convierte en un entorno de desarrollo elegante, eficiente y perfectamente adaptado a vos.

    Y cada vez que arrancás Arch, recordás algo esencial: entender tu sistema es entender tu herramienta de trabajo.

  • Gobernar no es demostrar: la política como arte de decidir

    Gobernar no es demostrar: la política como arte de decidir

    Reflexión de viernes

    Este artículo inaugura una nueva línea de pensamiento donde la política y la ciencia se cruzan, se confunden y se separan. Una reflexión sobre el acto de gobernar en tiempos de incertidumbre, cuando los datos abundan, pero las decisiones siguen siendo humanas.

    La política no busca demostrar, sino decidir con responsabilidad.


    Vivimos en una época que idolatra la evidencia. Toda decisión, para ser legítima, parece necesitar una planilla de Excel, una simulación estadística o un informe técnico que la respalde. Es la era de la tecnopolítica, donde gobernar se presenta como una cuestión de método más que de juicio. Pero gobernar —como recordaba Max Weber en La política como vocación— no es una ciencia exacta, sino una práctica que combina convicción, responsabilidad y, sobre todo, sentido de realidad. La ciencia explica; la política decide.

    Confundir ambas esferas ha sido uno de los mayores malentendidos de nuestra modernidad. Desde la ilusión tecnocrática que cree que los problemas sociales se resuelven con algoritmos, hasta los populismos que niegan toda evidencia empírica, transitamos entre dos extremos: el exceso de racionalidad y el desprecio por ella. En ambos casos, se olvida lo esencial: que la política no es una demostración lógica, sino una forma de acción en la incertidumbre.


    La tentación tecnocrática

    Gobernar “según la ciencia” suena sensato. Pero implica una trampa. Supone que las decisiones políticas pueden deducirse de hechos objetivos, como si la realidad fuera una ecuación a resolver. La pandemia de COVID-19 fue el laboratorio de esa ilusión: especialistas convertidos en autoridades morales, políticos que se escudaban en comités de expertos y sociedades que confundieron la evidencia con el mandato. La ciencia ofrecía datos, pero la política debía decidir qué hacer con ellos. No son lo mismo.

    La filósofa Hannah Arendt lo advirtió en La condición humana: la acción política se distingue de la labor técnica precisamente porque su fin no es fabricar cosas, sino construir un mundo común entre seres diversos. Allí donde la ciencia busca verdad, la política busca sentido compartido. Y ese sentido no se demuestra: se debate, se acuerda, se conquista.


    Entre el dato y el valor

    El científico trabaja en el terreno de lo verificable; el político, en el de lo posible. Uno busca consistencia lógica; el otro, coherencia ética. La evidencia puede mostrar lo que es, pero no lo que debería ser. Karl Popper lo sabía bien: ninguna cantidad de observaciones empíricas basta para justificar un valor moral. Las democracias se derrumban cuando olvidan esta distinción.

    Cuando un gobierno afirma que sus decisiones son “científicas”, en realidad está desplazando la responsabilidad ética hacia el método. La ciencia, como advirtió Jürgen Habermas, no puede reemplazar la deliberación pública. Sin debate, el dato se vuelve dogma. Sin pluralidad, la evidencia se convierte en ideología. Por eso, toda política que aspire a legitimarse únicamente en la ciencia termina traicionando tanto a la política como a la ciencia misma.


    La política como ética de la decisión

    Weber describió al político auténtico como aquel que combina la pasión por una causa con la mesura del juicio. Gobernar exige carácter, porque implica decidir con información incompleta, con riesgos, con dilemas irresueltos. No hay modelo predictivo capaz de calcular el costo moral de una decisión humana. Entre la certeza del laboratorio y la incertidumbre del gobierno se abre el espacio donde nace la responsabilidad.

    Ahí radica la diferencia fundamental: la ciencia puede describir consecuencias, pero no asumirlas. La política, en cambio, se define por asumir las consecuencias de sus actos. En eso consiste su dimensión ética: no en conocer más, sino en responder por lo que se hace. La política no se mide por la exactitud de sus datos, sino por la integridad de sus decisiones.


    El poder de no saber

    El problema de nuestro tiempo no es la falta de conocimiento, sino el exceso de confianza en él. Queremos que los números hablen por nosotros, que los algoritmos tomen decisiones más justas, que la inteligencia artificial corrija nuestros sesgos. Pero lo humano no desaparece: se desplaza. Y cuando lo hace sin conciencia, el poder se oculta tras el lenguaje de la objetividad.

    Arendt llamaba a esto “la abdicación del juicio”: cuando el pensamiento se somete a la evidencia y deja de evaluar el sentido de los actos. En un mundo saturado de información, el verdadero coraje político consiste en volver a preguntar qué es lo correcto, no solo qué es eficiente. Gobernar es decidir en medio de la niebla, no al amparo de un manual.


    El riesgo de confundir razón con justicia

    En nombre de la racionalidad, se han cometido los mayores errores políticos. La planificación económica total, la ingeniería social, los experimentos que reducen la vida a una variable estadística. Cada vez que la política quiso comportarse como una ciencia, terminó deshumanizándose. Y cada vez que la ciencia fue sometida a la política, perdió su rigor.

    La democracia moderna necesita un equilibrio delicado: la ciencia como guía, la política como decisión. Ni tecnocracia sin alma, ni populismo sin razón. Gobernar implica reconocer que la verdad no se impone: se construye entre voces que difieren. En ese sentido, la política es el arte de lo imperfecto, el intento de convertir la incertidumbre en convivencia.


    De la evidencia a la sabiduría

    Podemos medir casi todo: el crecimiento económico, la contaminación, la satisfacción ciudadana. Pero ninguna cifra reemplaza la experiencia del juicio. Saber no es lo mismo que comprender. Habermas insistía en que la legitimidad democrática depende del diálogo, no del experimento. La política es una conversación inacabada entre saberes, pasiones y visiones del bien común.

    Tal vez sea hora de devolverle al gobierno su condición humana: errática, contradictoria, pero capaz de aprender. Gobernar no es aplicar fórmulas, sino improvisar con prudencia. No es demostrar que se tiene razón, sino escuchar lo que aún no sabemos.


    La política como cuidado del mundo

    Si la ciencia es una manera de entender el mundo, la política es una manera de sostenerlo. Ambas se necesitan, pero ninguna puede sustituir a la otra. En tiempos de crisis ecológica, desigualdad y automatización, el desafío no es producir más conocimiento, sino usarlo con sabiduría. La responsabilidad política comienza donde la certeza científica termina.

    La política, en su sentido más noble, no busca dominar la realidad, sino acompañarla. Es un trabajo paciente de reparación, de cuidado, de mediación. Si la ciencia se pregunta cómo es el mundo, la política se pregunta qué haremos con él. Y en esa diferencia se juega nuestro futuro común.


    “Gobernar es decidir sabiendo que nunca sabremos del todo.”


    Bibliografía orientativa

    • Weber, Max. La política como vocación. Madrid: Alianza, 2003.
    • Arendt, Hannah. La condición humana. Barcelona: Paidós, 1993.
    • Popper, Karl. La sociedad abierta y sus enemigos. Buenos Aires: Paidós, 1985.
    • Habermas, Jürgen. Conocimiento e interés. Madrid: Taurus, 1982.
    • Weber, Max. El científico y el político. Buenos Aires: Prometeo, 2005.
  • Código abierto, comunidad y confianza: lecciones del caso Arch Linux Spark RAT

    Código abierto, comunidad y confianza: lecciones del caso Arch Linux Spark RAT

    El reciente incidente en el Arch User Repository (AUR) —detectado por It’s FOSS— expuso un paquete malicioso que contenía un remote access trojan (RAT).
    El supuesto paquete google-chrome-stable, subido por un usuario nuevo, ejecutaba un script que descargaba código remoto.
    Gracias a la rápida reacción de la comunidad, el paquete fue eliminado antes de causar mayores daños.

    Este episodio sirve como recordatorio del papel esencial de la transparencia y vigilancia comunitaria en el ecosistema del software libre.


    La importancia de la transparencia en el software comunitario

    1. Revisión abierta del código

    En los proyectos de código abierto, cualquier persona puede inspeccionar y auditar el código.
    Esta apertura permite identificar errores o comportamientos sospechosos antes de que se propaguen.
    La revisión por pares es un mecanismo de control social efectivo.

    2. Responsabilidad y trazabilidad

    La exposición pública del código genera responsabilidad: los desarrolladores saben que sus aportes pueden ser evaluados.
    La trazabilidad del historial de cambios fortalece la confianza colectiva.

    3. Reacción rápida ante incidentes

    A diferencia del software propietario, donde los parches dependen de un único proveedor, la comunidad puede actuar de forma inmediata.
    En el caso de la AUR, la detección y eliminación del paquete fue casi instantánea.

    4. Confianza y legitimidad

    La transparencia no solo mejora la seguridad técnica, sino también la legitimidad institucional de los proyectos abiertos.
    La comunidad percibe que no hay nada que ocultar.

    Limitaciones

    Sin embargo, la apertura no es sinónimo de infalibilidad:

    • No todos los usuarios revisan los scripts antes de instalarlos.
    • La revisión voluntaria puede ser insuficiente ante un alto volumen de contribuciones.
    • Falta de automatización o validación previa en algunos repositorios.

    Por eso, la transparencia debe complementarse con políticas de revisión, automatización y alertas.


    La reacción de la comunidad Arch Linux

    La respuesta fue ejemplar:

    • Un usuario reportó el comportamiento sospechoso.
    • Los administradores de la AUR eliminaron el paquete y emitieron una alerta pública.
    • La comunidad debatió mejoras en los mecanismos de validación y autenticación de paquetes.

    Este proceso demostró la capacidad de autorregulación que distingue a los proyectos verdaderamente comunitarios.


    Comparación con el software propietario

    Aspecto Código abierto Software propietario
    Transparencia Revisión pública del código Solo el proveedor puede auditar
    Corrección de fallos Comunitaria y rápida Depende de la empresa
    Costos Reducidos o nulos Licencias, soporte, dependencia
    Vulnerabilidades ocultas Detectables por la comunidad Pueden permanecer años sin corregirse

    Ejemplos de software propietario con fallos persistentes son comunes:
    vulnerabilidades en sistemas como Windows Server o Oracle Java SE permanecieron años sin parchearse, generando costos millonarios en soporte y seguridad.

    Esto muestra que cerrar el código no equivale a protegerlo; al contrario, la falta de revisión externa puede agravar la deuda técnica.


    Conclusión

    El caso del Spark RAT en Arch Linux no fue una catástrofe, sino una lección: la apertura y colaboración comunitaria son los mecanismos más eficaces para construir ecosistemas tecnológicos resilientes y confiables.

    La transparencia no solo es un valor ético, sino una ventaja estructural.
    Permite que el conocimiento, la vigilancia y la responsabilidad se distribuyan entre muchos, no entre pocos.

    En una era donde los riesgos digitales se multiplican, el modelo del software libre nos recuerda que la seguridad nace del escrutinio, no del secreto.

  • Por qué uso Arch Linux (y GNOME) en mi escritorio y Debian en mis servidores

    Por qué uso Arch Linux (y GNOME) en mi escritorio y Debian en mis servidores

    Uso Arch Linux en mi desktop porque me permite trabajar exactamente como quiero. No es un sistema pensado para esconderte las tripas del software, sino para dejarte interactuar con ellas. En Arch nada está preconfigurado: cada paquete, cada servicio, cada detalle lo definí yo. Ese proceso —que muchos ven como un obstáculo— es precisamente lo que me da libertad. No tengo que “adaptarme” al sistema; el sistema se adapta a mí.

    Arch es rápido, limpio y predecible. Gracias a su modelo rolling release siempre tengo acceso al software más reciente sin depender de actualizaciones forzadas o versiones intermedias. Y con el AUR instalo lo que necesito —inclusive herramientas de nicho o en desarrollo activo— con la misma simplicidad que si vinieran del repositorio oficial. Además, la Arch Wiki es un recurso invaluable: documentación clara, mantenida por gente que entiende y comparte.

    En servidores, en cambio, uso Debian. Ahí la prioridad es otra: estabilidad y previsibilidad para infraestructura que no puede fallar. Debian es la roca sobre la que corro producción; Arch es el laboratorio donde experimento, desarrollo y aprendo. No son opuestos: se complementan.

    En el escritorio elijo GNOME. Algunos dicen que es “minimalista” o “poco personalizable”; para mí, eso es una virtud. KDE es excelente, pero a mí me sobran los menús y las opciones redundantes. GNOME me ofrece una interfaz limpia, coherente y sin ruidos. Y si quiero personalizar, puedo: lo tengo exactamente a mi gusto.

    Con unas cuantas extensiones, GNOME se comporta casi como un gestor tiling, ideal para desarrollar sin perder foco:

    • Material Shell – transforma el flujo en tiling real, con espacios organizados y navegación por teclado.
    • Pop Shell – mosaico automático y atajos inteligentes inspirados en System76.
    • Tiling Assistant – liviana y suficiente si prefiero mantener el GNOME clásico con mosaicos útiles.
    • Dash to Dock o Dash to Panel – barra y lanzador integrados, más prácticos para el día a día.
    • Just Perfection – afina la interfaz: quito lo que no suma y dejo solo lo que uso.

    Al final, Arch + GNOME no es una pose ni un “porque sí”. Es una forma de trabajo: entender, ajustar, optimizar. Cada actualización me recuerda que sigo al mando; cada extensión, que puedo construir el entorno que necesito. Vuelvo a Arch todos los días por lo mismo que enseño en el aula: cuando entendés cómo funciona, lo podés mejorar. Y cuando lo mejorás, también te mejora a vos.

  • Instalar bspwm en Fedora

    Instalar bspwm en Fedora

    Guía técnica completa para entornos profesionales y docentes


    🧭 1) ¿Qué es Fedora?

    Fedora es una distribución GNU/Linux patrocinada por Red Hat, reconocida por su estabilidad, innovación y políticas de software libre.
    Se caracteriza por incluir versiones actualizadas del kernel y paquetes, manteniendo a la vez una fuerte orientación a la seguridad mediante SELinux.

    Ofrece múltiples ediciones o spins (GNOME, KDE, XFCE, i3, Sway, etc.), y sirve como base de prueba para tecnologías que luego se integran en Red Hat Enterprise Linux.

    Ventajas principales:

    • Software siempre actualizado y probado.
    • Integración nativa con SELinux.
    • Excelente documentación y soporte de comunidad.

    Desventajas:

    • Ritmo de actualización rápido (puede requerir mantenimiento periódico).
    • Algunas configuraciones avanzadas no vienen preinstaladas por defecto.

    🪟 2) ¿Qué es bspwm?

    bspwm (Binary Space Partitioning Window Manager) es un gestor de ventanas en mosaico (tiling) para X11.
    Organiza las ventanas como un árbol binario, donde cada división crea un espacio asignado a una aplicación.
    Se configura a través de scripts shell y se controla mediante bspc (un cliente que envía comandos al daemon bspwm).

    Características técnicas:

    • Arquitectura modular:
      bspwm (daemon) + sxhkd (gestor de atajos) + bspc (cliente de control).
    • Sin configuraciones internas fijas: todo se maneja vía shell.
    • Extremadamente liviano y rápido.
    • Alta scriptabilidad: ideal para automatizar disposiciones de ventanas y flujos de trabajo.

    ⚖️ 3) Comparativa rápida: bspwm vs i3 vs Sway

    Criteriobspwm (X11)i3 (X11)Sway (Wayland)
    Backend gráficoXorgXorgWayland
    FilosofíaScriptable (bspc + sxhkd)Declarativa y estableCompatible con i3, Wayland nativo
    AtajosExternos (sxhkd)IntegradosIntegrados
    Reglas de ventanasPotentes (bspc rule)Limitadas (for_window)Similares a i3
    VM y compatibilidadExcelente (sin GPU 3D)ExcelenteRequiere virtio-gpu
    Curva de aprendizajeMediaBajaMedia-alta
    Ideal paraUsuarios avanzados y scriptingUsuarios nuevos o productivosEquipos modernos con Wayland

    Conclusión:

    • bspwm es perfecto para quienes desean control total mediante scripts.
    • i3 es ideal para quienes priorizan simplicidad inmediata.
    • Sway es el futuro (Wayland), pero demanda hardware compatible.

    🧰 4) Requisitos previos

    • Fedora instalado (Workstation, Server o Minimal).
    • Acceso a internet y privilegios sudo.
    • Un Display Manager (GDM, LightDM o SDDM).
    • Sistema gráfico basado en X11 (no Wayland).

    💡 Si usas VM: GNOME Boxes / Virt-Manager (QEMU/KVM) brinda la mejor compatibilidad con tiling WMs.


    ⚙️ 5) Instalación paso a paso

    Paso 1: Instalar los paquetes esenciales

    sudo dnf install -y bspwm sxhkd rofi polybar picom alacritty feh

    Paso 2: Crear las carpetas de configuración

    mkdir -p ~/.config/{bspwm,sxhkd,polybar,picom}

    Paso 3: Copiar las plantillas oficiales

    cp /usr/share/doc/bspwm/examples/bspwmrc ~/.config/bspwm/
    cp /usr/share/doc/bspwm/examples/sxhkdrc ~/.config/sxhkd/
    chmod +x ~/.config/bspwm/bspwmrc

    🧩 6) Configuración básica funcional

    🧱 ~/.config/bspwm/bspwmrc

    #!/bin/sh
    
    bspc monitor -d 1 2 3 4 5 6 7 8 9 10
    
    bspc config border_width         2
    bspc config window_gap           8
    bspc config split_ratio          0.52
    bspc config border_focus_color   "#5294E2"
    bspc config border_normal_color  "#444444"
    
    # Lanzar servicios
    pgrep -x sxhkd >/dev/null || sxhkd &
    picom --config ~/.config/picom/picom.conf &
    ~/.config/polybar/launch.sh &
    feh --bg-fill /usr/share/backgrounds/default.png 2>/dev/null &

    ⌨️ ~/.config/sxhkd/sxhkdrc

    # Terminal
    super + Return
      alacritty
    
    # Menú de aplicaciones
    super + d
      rofi -show drun
    
    # Cerrar ventana
    super + q
      bspc node -c
    
    # Navegar entre ventanas
    super + {h,j,k,l}
      bspc node -f {west,south,north,east}
    
    # Mover ventanas
    super + shift + {h,j,k,l}
      bspc node -s {west,south,north,east}
    
    # Cambiar de escritorio
    super + {1-9,0}
      bspc desktop -f '^{1-9,10}'

    📊 ~/.config/polybar/launch.sh

    #!/usr/bin/env bash
    killall -q polybar || true
    while pgrep -u "$UID" -x polybar >/dev/null; do sleep 0.5; done
    polybar example & disown
    chmod +x ~/.config/polybar/launch.sh

    ⚙️ ~/.config/polybar/config.ini

    [bar/example]
    width = 100%
    height = 28
    modules-left = workspaces
    modules-right = date

    [module/workspaces]

    type = internal/xworkspaces

    [module/date]

    type = internal/date interval = 1 date = %Y-%m-%d %H:%M

    💨 ~/.config/picom/picom.conf

    backend = "xrender";
    vsync = true;
    shadow = false;
    fading = false;

    🚀 7) Iniciar bspwm

    Con gestor de sesión (GDM/LightDM)

    Cerrá sesión → seleccioná bspwm → iniciar sesión.

    Sin display manager (modo consola)

    sudo dnf install -y xorg-x11-xinit
    echo 'exec bspwm' > ~/.xinitrc
    startx

    🧩 8) Solución de problemas comunes

    ProblemaSolución
    No responden los atajosAsegurate de que sxhkd está corriendo (pgrep -x sxhkd)
    No aparece la barraVerificá ~/.config/polybar/launch.sh y permisos de ejecución
    Parpadeo o sombras rarasEditá ~/.config/picom/picom.conf o no inicies picom
    Pantalla negra inicialPuede deberse a fondo o compositor; comentá las líneas finales del bspwmrc
    Atajos con tecla “Super” no funcionan en VMUsá Alt (Mod1) o habilitá “Grab keyboard” en tu hipervisor

    📈 9) Cuándo elegir bspwm

    Si querés…Elegí…
    Control total, scripting y reglas personalizadasbspwm
    Configuración rápida y establei3
    Entorno Wayland modernoSway
    Usarlo en VM sin GPU 3Di3 o bspwm

    ✅ 10) Resumen rápido

    sudo dnf install bspwm sxhkd rofi polybar picom alacritty feh
    cp /usr/share/doc/bspwm/examples/bspwmrc ~/.config/bspwm/
    cp /usr/share/doc/bspwm/examples/sxhkdrc ~/.config/sxhkd/
    chmod +x ~/.config/bspwm/bspwmrc

    Luego:

    • Seleccioná bspwm al iniciar sesión (o startx).
    • Editá sxhkdrc y bspwmrc a gusto.
    • Disfrutá de un entorno minimalista, rápido y perfectamente scriptable.

    🧠 Conclusión

    bspwm en Fedora combina lo mejor de ambos mundos:
    la base sólida y moderna de Fedora con la flexibilidad extrema de un tiling manager scriptable.
    Ideal para usuarios avanzados, docentes o entornos donde la eficiencia, la reproducibilidad y el control fino son prioridad.

    🧩 “bspwm no te impone un flujo de trabajo; te deja diseñarlo.”

  • Integrar la IA con sentido: herramientas, prácticas y marcos para una educación aumentada

    Integrar la IA con sentido: herramientas, prácticas y marcos para una educación aumentada

    La irrupción de la inteligencia artificial en la educación generó, como vimos en el artículo anterior, un terremoto de preguntas: ¿es oportunidad o colapso? Ahora, más allá del diagnóstico inicial, es tiempo de mirar hacia adelante: ¿qué podemos hacer con la IA dentro de las aulas, en las casas de estudio y en las instituciones educativas sin caer en los extremos del entusiasmo ciego ni del rechazo absoluto?

    La idea de este texto no es dar recetas cerradas, sino abrir un espacio donde docentes, estudiantes y responsables institucionales puedan encontrarse. La IA ya está aquí, y lo que está en juego es cómo la usamos.

    Viene del artículo anterior: Educación y la irrupción de la inteligencia artificial: ¿oportunidad o colapso?


    Cuando los docentes se preguntan si la IA les quita o les devuelve tiempo

    Muchos docentes sienten que la IA amenaza con reemplazarlos. Y algo de razón tienen: hay software capaz de diseñar cuestionarios, corregir exámenes de opción múltiple o generar variantes de un mismo ejercicio. Pero detenerse ahí es ver solo la mitad de la película.

    Lo que la investigación muestra es que la IA puede liberar tiempo de tareas rutinarias para que los profesores se concentren en lo que más importa: acompañar procesos, dialogar, dar feedback significativo. Xu y Ouyang (2023) muestran que, en la práctica, la mayoría de las aplicaciones de IA en educación automatizan rutinas, pero no redefinen el rol del docente. La oportunidad, entonces, está en usar esas rutinas como plataforma para repensar la enseñanza, no como sustituto.

    Un ejemplo concreto: un profesor puede apoyarse en IA para generar rápidamente una rúbrica inicial de evaluación. Pero el valor pedagógico aparece cuando esa rúbrica se adapta al contexto, a los niveles de dificultad y a las necesidades de los estudiantes reales. La IA puede sugerir, pero la decisión crítica sigue siendo humana.

    La clave aquí es que el docente se convierta en un curador de inteligencia artificial: alguien que sabe cuándo y cómo aprovechar lo que la IA ofrece, y cuándo es mejor dejarla de lado.


    Cuando los estudiantes confunden ayuda con atajo

    Del lado del alumnado, el escenario es distinto: muchos ven en la IA un aliado para aligerar tareas. ¿Un ensayo en 10 segundos? ¿Un resumen perfecto sin leer el texto? ¿Traducciones automáticas para no esforzarse en entender? Todo eso suena tentador, pero encierra una trampa cognitiva: la ilusión de aprender sin esfuerzo.

    Holmes, Bialik y Fadel (2019) advierten que si no se integra con sentido pedagógico, la IA puede desplazar habilidades humanas esenciales. Dawson y Sutherland-Smith (2023) fueron más lejos: documentaron cómo la dependencia de ChatGPT en contextos académicos se convirtió en un problema de integridad y de pérdida de agencia estudiantil.

    El estudiante que solo “copia y pega” de un chatbot no aprende a preguntar, a argumentar ni a reconocer la validez de una fuente. Al contrario: corre el riesgo de convertirse en un usuario pasivo, incapaz de distinguir entre una idea sólida y una respuesta inventada (las famosas hallucinations de los modelos generativos).

    Pero esto no significa que la IA no sirva. Bien usada, puede convertirse en un compañero de estudio. Pensemos en un alumno que utiliza IA para practicar exámenes de repaso, obtener explicaciones alternativas de un concepto difícil o pedir ejemplos aplicados a su contexto local. Ahí sí hay aprendizaje genuino: la IA no reemplaza el esfuerzo, sino que lo amplifica.

    El problema no es la tecnología, sino el modo de usarla.


    Cuando las instituciones tienen que dejar de mirar para otro lado

    El tercer actor son las instituciones educativas. Y aquí la responsabilidad es enorme. Mientras docentes y estudiantes prueban, improvisan y a veces se equivocan, las universidades y escuelas necesitan ofrecer un marco claro: reglas, políticas y formación.

    Selwyn (2022) fue tajante: muchas instituciones se limitan a “agregar capas tecnológicas” sin rediseñar la lógica pedagógica. Esto genera la ilusión de modernidad, pero en realidad solo maquilla viejas estructuras.

    La UNESCO (2023) lo confirma con datos: la brecha digital sigue ampliándose. No solo porque miles de estudiantes no tienen dispositivos ni conexión de calidad, sino porque incluso quienes sí acceden no siempre reciben formación crítica para usar la IA con criterio.

    ¿Qué implica entonces un uso responsable a nivel institucional?

    • Políticas claras sobre integridad académica en la era de la IA (qué se permite, qué se prohíbe y bajo qué condiciones).
    • Capacitación docente no solo en manejo técnico de herramientas, sino en pedagogía crítica para integrarlas.
    • Infraestructura y equidad: garantizar que el acceso no quede en manos de unos pocos.
    • Ética y transparencia: entender que la IA también trae riesgos de sesgo, privacidad y dependencia de grandes corporaciones.

    En otras palabras: la IA no debe ser solo un tema de aula, sino también de rectorados, ministerios y organismos internacionales.


    Un espacio común para los tres actores

    Lo más interesante ocurre cuando estos tres mundos dialogan. Un docente que comparte qué herramientas le sirven para preparar mejor sus clases. Un estudiante que explica cómo la IA lo ayudó a organizarse, pero también dónde se sintió engañado por una respuesta errónea. Una institución que ofrece lineamientos claros para que la innovación no se convierta en desigualdad.

    La IA no es una varita mágica, pero tampoco es un monstruo. Es un recurso más en la caja de herramientas educativas. El reto es aprender a convivir con ella sin perder de vista lo fundamental: que la educación no consiste en producir respuestas rápidas, sino en formar personas críticas, creativas y con criterio propio.

    La gran pregunta es si seremos capaces de integrar esta tecnología con sentido pedagógico, en vez de dejarnos arrastrar por modas o por miedos. Esa respuesta no la dará un algoritmo. La tenemos que construir entre docentes, estudiantes e instituciones.


    Referencias

    • Selwyn, N. (2022). Education and Technology: Key Issues and Debates (3ra ed.). Bloomsbury.
    • Xu, B., & Ouyang, F. (2023). Artificial intelligence in STEM education: A review of empirical studies. Expert Systems with Applications, 224, 119675.
    • Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Center for Curriculum Redesign.
    • Dawson, P., & Sutherland-Smith, W. (2023). ChatGPT and assessment: Prompt engineering and academic integrity. Assessment & Evaluation in Higher Education.
    • Luckin, R., Holmes, W., Griffiths, M., & Forcier, L. B. (2016). Intelligence Unleashed: An Argument for AI in Education. Pearson.
    • UNESCO. (2023). Global Education Monitoring Report 2023: Technology in education – A tool on whose terms? UNESCO Publishing.
  • Educación y la irrupción de la inteligencia artificial: ¿oportunidad o colapso?

    Educación y la irrupción de la inteligencia artificial: ¿oportunidad o colapso?

    INTRODUCCIÓN

    La inteligencia artificial (IA) ha pasado de ser una idea futurista a una presencia cotidiana, incluyendo las aulas. Desde herramientas de redacción hasta tutores virtuales, la IA está alterando radicalmente el ecosistema educativo. Pero esta revolución tecnológica plantea interrogantes urgentes: ¿está la educación preparada para convivir con la IA? ¿Es esta una herramienta que amplificará el aprendizaje, o un atajo que debilita el pensamiento? Este artículo explora los desafíos fundamentales que enfrenta la educación frente a la expansión acelerada de la IA.

    I. UN MODELO EDUCATIVO QUE PERTENECE AL SIGLO PASADO

    El sistema educativo tradicional fue diseñado para un mundo industrial, donde memorizar, repetir y seguir reglas eran competencias valoradas. Pero hoy, cuando los algoritmos acceden a más datos en segundos que un ser humano en años, este modelo se ve obsoleto.

    Según el investigador Neil Selwyn (2022), gran parte de los sistemas escolares simplemente están añadiendo capas tecnológicas sobre estructuras desactualizadas, sin cambiar la lógica pedagógica de fondo. Esto no transforma la educación; sólo la digitaliza superficialmente. Selwyn argumenta que este enfoque corre el riesgo de reforzar desigualdades y limitar el potencial transformador de la tecnología (Selwyn, 2022, Education and Technology: Key Issues and Debates, 3ra ed.).

    Revisiones recientes del campo AIED (Artificial Intelligence in Education) muestran que muchas de las herramientas actuales automatizan tareas rutinarias (feedback, corrección, generación de ejercicios), pero no provocan una reconfiguración pedagógica real (Xu & Ouyang, 2023).

    Mientras no se rediseñe el rol del docente, el currículo y las formas de evaluación, la IA será solo una prótesis más del sistema tradicional.

    II. EL USO PASIVO DE LA IA: UN RIESGO COGNITIVO Y FORMATIVO

    Muchos estudiantes no utilizan la IA para aprender, sino para evitar el esfuerzo cognitivo. Esto plantea un problema: si una herramienta produce respuestas inmediatas, ¿por qué desarrollar pensamiento crítico, argumentación o escritura reflexiva?

    Estudios recientes alertan sobre este fenómeno. Holmes, Bialik y Fadel (2019) explican que las tecnologías emergentes pueden desplazar habilidades humanas si no se integran con intención pedagógica. Por su parte, Dawson y Sutherland-Smith (2023) documentan cómo el uso indiscriminado de ChatGPT ha generado preocupaciones sobre la integridad académica y la pérdida de agencia estudiantil.

    Además, los modelos generativos de IA como GPT-4 presentan limitaciones estructurales: pueden inventar datos (hallucinations), reproducir sesgos o dar respuestas inexactas. Si el estudiante no tiene la capacidad de discernir la calidad de la información, su aprendizaje puede ser superficial o erróneo.

    Sin acompañamiento docente y sin enseñar alfabetización crítica en IA, los estudiantes podrían convertirse en usuarios pasivos, incapaces de construir conocimiento genuino.

    III. DESIGUALDADES AMPLIFICADAS: LA BRECHA DIGITAL DE NUEVA GENERACIÓN

    La promesa de la IA como herramienta democratizadora solo se cumplirá si se garantiza acceso equitativo. Hoy, millones de estudiantes carecen de conexión estable, dispositivos adecuados o entornos digitales seguros. El informe “Global Education Monitoring Report” de la UNESCO (2023) señala que las desigualdades tecnológicas se han profundizado desde la pandemia, y que muchas escuelas no tienen capacidad para implementar tecnología avanzada sin soporte externo.

    Además del acceso físico, existe una brecha de uso: saber interactuar con una IA, formular preguntas (prompting), evaluar respuestas y aplicarlas con criterio requiere formación. La falta de alfabetización digital en estudiantes y docentes puede traducirse en un uso superficial o contraproducente de estas tecnologías (Luckin et al., 2016).

    La IA no resolverá los problemas estructurales de la educación; puede incluso agravarlos si no se acompaña con políticas de equidad, infraestructura y formación docente.

    Referencias:

    • Selwyn, N. (2022). Education and Technology: Key Issues and Debates (3ra ed.). Bloomsbury.
    • Xu, B., & Ouyang, F. (2023). Artificial intelligence in STEM education: A review of empirical studies. Expert Systems with Applications, 224, 119675.
    • Holmes, W., Bialik, M., & Fadel, C. (2019). Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Center for Curriculum Redesign.
    • Dawson, P., & Sutherland-Smith, W. (2023). ChatGPT and assessment: Prompt engineering and academic integrity. Assessment & Evaluation in Higher Education.
    • Luckin, R., Holmes, W., Griffiths, M., & Forcier, L. B. (2016). Intelligence Unleashed: An Argument for AI in Education. Pearson.
    • UNESCO. (2023). Global Education Monitoring Report 2023: Technology in education – A tool on whose terms? UNESCO Publishing.
  • Historia de la Universidad Nacional de Río Cuarto (UNRC)

    Historia de la Universidad Nacional de Río Cuarto (UNRC)

    De un sueño regional a un actor clave en la educación y el desarrollo del sur de Córdoba

    1. El sueño de una universidad en el interior (1950–1970)

    En la Argentina de mediados del siglo XX, la universidad estaba concentrada en pocas ciudades: Buenos Aires, Córdoba, La Plata, Tucumán y algunas capitales provinciales. Para los jóvenes del sur de Córdoba —y de provincias limítrofes como San Luis o La Pampa— estudiar una carrera significaba emigrar, con todo lo que ello implicaba: desarraigo, costos altos y, muchas veces, la imposibilidad de regresar.

    En ese contexto, surgieron las primeras instituciones educativas locales que anticipaban la vida universitaria: el Instituto Superior de Ciencias (1959) y el Bachillerato Agrotécnico (1961). Eran pequeños pasos, pero mostraban una sociedad movilizada para ofrecer formación avanzada en una región cuyo motor era —y sigue siendo— el campo y la agroindustria.

    La gran oportunidad llegó a fines de los sesenta, con el Plan Taquini (1968), una política nacional que buscaba descentralizar la educación superior. El plan proponía crear universidades en ciudades intermedias, vinculadas al perfil productivo de cada región. Río Cuarto reunía todas las condiciones: población en crecimiento, ubicación estratégica y un hinterland agropecuario pujante.


    2. Fundación: el nacimiento de un campus (1971–1975)

    El 1 de mayo de 1971, el gobierno nacional sancionó la Ley 19.020, que dio vida a la Universidad Nacional de Río Cuarto. Fue una de las primeras instituciones del Plan Taquini y símbolo de una Argentina que, pese a las tensiones políticas, buscaba ampliar derechos a la educación.

    El campus se levantó al norte de la ciudad, en un extenso terreno de más de 150 hectáreas. Aún era un espacio semirrural, atravesado por el viento pampeano, donde las primeras construcciones convivían con calles de tierra y potreros. Las clases comenzaron en 1972, en aulas provisorias, mientras se terminaban los edificios principales.

    Desde el inicio, la UNRC se organizó en cinco Facultades, que aún hoy son su columna vertebral:

    • Agronomía y Veterinaria.
    • Ciencias Económicas.
    • Ciencias Exactas, Físico-Químicas y Naturales.
    • Ciencias Humanas.
    • Ingeniería.

    La universidad nació pequeña, con unos pocos miles de estudiantes, pero con una misión clara: ser un centro académico y científico al servicio de la región.


    3. Dictadura y silencios forzados (1976–1983)

    La joven universidad no escapó a la tormenta que azotó al país en 1976. Tras el golpe militar, la UNRC fue intervenida, y la vida académica se vio atravesada por la vigilancia, la censura y la persecución política.

    Hubo estudiantes y docentes detenidos, exiliados y cesanteados. Los centros de estudiantes fueron cerrados, y las asambleas quedaron prohibidas. La vida universitaria se redujo al mínimo, marcada por el miedo y la represión. Décadas después, la UNRC reconocería oficialmente a las víctimas y revisaría los legajos marcados por la dictadura, en un proceso de reparación de la memoria.


    4. Democracia y expansión académica (1983–1990s)

    Con el regreso de la democracia en 1983, la UNRC recuperó la vitalidad que le había sido negada. Volvieron las elecciones de autoridades, el cogobierno universitario y la participación estudiantil.

    Durante esta etapa, se consolidaron grandes proyectos:

    • La Biblioteca Central “Juan Filloy”, concebida como espacio cultural además de académico.
    • Los primeros posgrados (maestrías y doctorados), que dieron un salto en la formación de investigadores.
    • El fortalecimiento de la extensión universitaria, con programas en barrios populares, escuelas rurales y municipios de la región.

    La UNRC pasó a ser, en pocos años, un faro educativo del interior argentino, atrayendo estudiantes de Córdoba, San Luis, La Pampa y Santa Fe.


    5. Modernización y ciencia aplicada (2000–2010s)

    En las primeras décadas del siglo XXI, la UNRC alcanzó su madurez como institución:

    • Su campus de 165 hectáreas se consolidó como una pequeña ciudad universitaria.
    • Incorporó más de 1.400 hectáreas de campos experimentales, usados para investigación agropecuaria y prácticas estudiantiles, una de las infraestructuras más grandes del país en el sistema universitario.
    • Se modernizaron laboratorios, aulas y residencias estudiantiles.
    • La investigación se diversificó: biotecnología, energías renovables, ciencias sociales críticas, informática y educación.
    • Se fortalecieron los lazos internacionales, con intercambios en Latinoamérica y Europa.

    Al mismo tiempo, la universidad profundizó su rol social: asistencia a cooperativas agrícolas, asesoramiento a municipios, investigaciones sobre ambiente y salud comunitaria.


    6. La UNRC en el presente (2020s)

    Hoy, la Universidad Nacional de Río Cuarto ofrece más de 50 carreras de grado y una treintena de posgrados, organizados en sus cinco Facultades. Es hogar de más de 20.000 estudiantes y de cientos de investigadores y docentes.

    Áreas de fortaleza

    • Agro y ambiente: mejora genética de cultivos, manejo de suelos, impacto del cambio climático.
    • Economía y desarrollo: estudios sobre pymes, economía social y regional.
    • Humanidades: investigaciones en educación, historia, comunicación y políticas públicas.
    • Exactas e ingeniería: proyectos en química aplicada, energías limpias, informática y nuevas tecnologías.

    Desafíos actuales

    • Financiamiento: como todas las universidades nacionales, enfrenta tensiones presupuestarias y paros que afectan la vida académica.
    • Ética y transparencia: casos recientes de uso irregular de laboratorios pusieron en debate la gestión de recursos y la integridad institucional.
    • Innovación pedagógica: necesita acelerar la incorporación de metodologías modernas, tecnologías digitales y estrategias de internacionalización.

    7. Área de influencia

    La UNRC no es solo una universidad: es un motor social y económico para toda la región centro.

    • Sur de Córdoba: área agrícola-ganadera estratégica (soja, maíz, maní, tambos).
    • Provincias vecinas: recibe estudiantes de San Luis, La Pampa y sur de Santa Fe.
    • Impacto urbano: la presencia de miles de jóvenes transforma a Río Cuarto en una ciudad universitaria, dinamizando la cultura, el alquiler y los servicios.
    • Transferencia de conocimiento: la universidad brinda asistencia técnica a municipios, empresas y cooperativas, siendo un nexo entre ciencia y producción.

    Epílogo: una universidad que cuenta la historia de su país

    La historia de la UNRC condensa las tensiones de la Argentina contemporánea:

    • Nació en los años del optimismo desarrollista.
    • Fue golpeada por la dictadura.
    • Revivió con la democracia y se expandió con la masificación de la educación superior.
    • Hoy enfrenta el dilema de todas las universidades públicas: sostener la calidad y la excelencia, sin perder su misión social.

    En medio de esas tensiones, la UNRC sigue cumpliendo su promesa fundacional: ser el puente al conocimiento para miles de jóvenes del interior profundo, y un actor clave en el desarrollo cultural, científico y productivo de la región.

    Línea de tiempo de la Universidad Nacional de Río Cuarto

    1950–1960: Los orígenes del sueño universitario

    • 1959 → Creación del Instituto Superior de Ciencias en Río Cuarto.
    • 1961 → Apertura del Bachillerato Agrotécnico, antecedente de Agronomía y Veterinaria.
    • Contexto: Argentina vive la etapa desarrollista, con debates sobre industrialización y educación.

    1968–1971: El Plan Taquini y la creación

    • 1968 → Se lanza el Plan Taquini, proyecto nacional para expandir universidades en ciudades intermedias.
    • 1 de mayo de 1971 → Se sanciona la Ley 19.020 que crea la UNRC.
    • Contexto: efervescencia política previa al regreso de Perón, fuerte demanda social de educación superior en el interior.

    1972–1975: Primeras clases y consolidación

    • 1972 → Inician las clases en el nuevo campus, aún en construcción.
    • 1975 → Se definen las cinco Facultades (estructura que sigue vigente).
    • Contexto: gran crecimiento de matrícula con estudiantes del sur cordobés, San Luis y La Pampa.

    1976–1983: Dictadura y represión

    • 1976 → Golpe militar; la UNRC es intervenida.
    • Persecución política: cesantías de docentes, clausura de centros estudiantiles, vigilancia de aulas.
    • Décadas después se reconocen legajos de estudiantes y trabajadores perseguidos.
    • Contexto nacional: terrorismo de Estado y restricción de libertades en todas las universidades.

    1983–1990: Democracia y expansión

    • 1983 → Regreso del cogobierno democrático en la UNRC.
    • Se afianzan los Consejos Superiores y la participación estudiantil.
    • Biblioteca Central “Juan Filloy” comienza a proyectarse como ícono cultural.
    • Se crean posgrados y doctorados en áreas clave.
    • Contexto: recuperación democrática, crecimiento de la educación pública.

    1990–2000: Extensión y territorio

    • Se fortalecen los programas de extensión universitaria en barrios populares, escuelas rurales y municipios de la región.
    • La UNRC se convierte en referente regional en agro, ambiente y educación.
    • Contexto: crisis económicas nacionales (hiperinflación, convertibilidad) que golpean la vida universitaria.

    2000–2010: Modernización

    • Campus de 165 ha se consolida con edificios modernos y servicios estudiantiles.
    • 1.445 ha de campos experimentales para prácticas agropecuarias e investigación.
    • Ingreso de la universidad en redes internacionales y proyectos de biotecnología, energías alternativas y ciencias sociales críticas.
    • Contexto: políticas nacionales de expansión universitaria y financiamiento (Plan de Infraestructura Universitaria).

    2010–2020: Ciencia aplicada y globalización

    • Se refuerza la investigación aplicada: biotecnología, TICs, energía y educación.
    • Aumenta la cooperación internacional y los convenios de movilidad estudiantil.
    • Programas de extensión en economía social, género y derechos humanos.
    • Contexto: universidades nacionales como actores clave del desarrollo regional.

    2020–2025: Retos y oportunidades

    • Pandemia de COVID-19: clases virtuales, aceleración de la digitalización.
    • Paros y conflictos presupuestarios (2024–2025) afectan la vida académica.
    • Investigación y ética: caso de uso irregular de laboratorios abre debate sobre transparencia.
    • LX Reunión Anual de la AAEP (2025) → la FCE-UNRC será sede de uno de los principales congresos de economía del país, mostrando su vigencia académica.
    • Contexto: tensiones en la universidad pública argentina entre masividad, financiamiento y calidad.

    INFOGRAFÍA

    La UNRC en el tiempo