Autor: dagorret

  • El sistema operativo del mundo: tecnología, libertad y dependencia

    El sistema operativo del mundo: tecnología, libertad y dependencia

    Reflexión de miércoles

    Vivimos rodeados de pantallas, redes, algoritmos y dispositivos. Pero más que rodeados, vivimos dentro de ellos. La tecnología ya no es una herramienta externa: es el ambiente en el que respiramos, el tejido invisible de nuestras decisiones, emociones y vínculos. Este texto explora cómo el software se convirtió en la forma contemporánea del mundo.

    Cuando todo funciona con software, ¿quién gobierna lo invisible?


    Durante siglos pensamos la técnica como un conjunto de herramientas al servicio del ser humano. Sin embargo, en el siglo XXI esa relación se invirtió: ya no manejamos los instrumentos, sino que habitamos dentro de ellos. El sistema operativo —esa capa invisible de código que sostiene el funcionamiento del mundo digital— se convirtió en la nueva infraestructura de la existencia. No solo organiza las máquinas: organiza nuestras vidas.


    1. La invisibilidad del poder tecnológico

    Martin Heidegger lo advirtió en La pregunta por la técnica (1954): la esencia de la técnica no es instrumental, sino ontológica. No se trata solo de medios para fines, sino de una forma de revelar el mundo. Hoy esa revelación adopta la forma del dato: todo lo que no puede medirse tiende a desaparecer. La técnica contemporánea ya no se limita a ayudarnos; nos define, nos traduce, nos anticipa.

    Lo más inquietante de este poder es su invisibilidad. Nadie “decide” los algoritmos que rigen la vida cotidiana, pero todos los seguimos. Desde los motores de búsqueda hasta los sistemas de recomendación, el poder técnico opera sin rostro. Como diría Bruno Latour, las máquinas se volvieron actores sociales: participan, median, intervienen. El problema no es su existencia, sino que no las percibimos como parte de la política.


    2. El código como ontología

    Gilbert Simondon sostenía que comprender una máquina es comprender su génesis. Hoy esa génesis está en el código: líneas de texto que determinan qué puede y qué no puede hacer un cuerpo, un sistema, una ciudad. El código es la nueva gramática de lo real. Escribe las reglas que antes pertenecían a la física o a la moral.

    Donna Haraway, en su Manifiesto Cyborg, propuso superar la frontera entre lo humano y lo técnico. El “cyborg” no es una fantasía futurista, sino nuestra condición presente: seres híbridos, ensamblados entre biología y algoritmo. Ya no usamos tecnología: somos tecnología. Y ese tránsito redefine la idea de libertad.


    3. De Linux a la nube: el poder de lo anónimo

    Linux, símbolo del conocimiento compartido, encarnó una ética de cooperación y autonomía. Pero su triunfo técnico se tradujo, paradójicamente, en dependencia social. Las grandes corporaciones —Amazon, Google, Microsoft— basan su infraestructura en Linux, pero la envuelven en un modelo cerrado. El código libre alimenta ecosistemas que privatizan la red.

    Shoshana Zuboff describió este fenómeno como capitalismo de la vigilancia: los sistemas aprenden de nosotros y, en ese aprendizaje, nos gobiernan. Android, derivado de Linux, representa esa paradoja: libre en origen, controlado en la práctica. La promesa de apertura devino ecosistema de control. Lo mismo ocurre con la nube: un espacio público sostenido por arquitecturas privadas.


    4. Ejemplos de un poder cotidiano

    El teléfono inteligente es el laboratorio perfecto del nuevo orden tecnológico. Nos da acceso, pero también nos encierra. Cada gesto deja un rastro, cada desplazamiento una coordenada. No necesitamos que nos vigilen: colaboramos con nuestra vigilancia.

    En los vehículos eléctricos, el propietario no posee realmente su máquina. Tesla puede activar o desactivar funciones a distancia; un coche puede “morir” por decisión remota. En las casas inteligentes, el confort se compra con privacidad: el hogar se convierte en sensor. Y en las inteligencias artificiales, la conversación se vuelve espejo: creemos dialogar, pero solo completamos patrones.

    Estos ejemplos no hablan de distopías futuras, sino del presente. El sistema operativo del mundo ya está en marcha, y su poder no proviene de la coerción, sino de la conveniencia. El usuario libre es aquel que todavía no actualizó sus términos de servicio.


    5. La humanidad delegada

    Byung-Chul Han observa que el sujeto digital ya no es dominado por la autoridad externa, sino por la autoexplotación. Nos controlamos con la ilusión de libertad. “El sujeto del rendimiento se explota a sí mismo creyendo que se realiza.” Cada notificación es una microtarea emocional. Cada algoritmo, un espejo que nos devuelve una versión optimizada de nosotros mismos.

    Delegamos la memoria en los dispositivos, la orientación en los mapas, la decisión en los sistemas de recomendación. La inteligencia artificial no roba empleos: roba tiempo, atención, sentido. Nos libera de pensar, pero también de experimentar. La dependencia técnica no se impone: se seduce.


    6. Habitar el sistema

    No existe un “afuera” de la tecnología. La desconexión es una fantasía pastoral. La verdadera libertad no consiste en escapar del sistema, sino en comprenderlo. Heidegger decía que la salvación solo puede surgir de donde acecha el peligro: la técnica puede revelar otra forma de habitar el mundo. Pero eso requiere conciencia, pedagogía y política.

    La alfabetización del siglo XXI no es solo aprender a programar: es aprender a pensar el poder inscrito en el código. Linux demostró que otra manera de construir tecnología es posible. Ahora el desafío es construir otra manera de vivir dentro de ella.


    “Ya no vivimos en un mundo con máquinas: vivimos dentro de ellas.”


    Bibliografía orientativa

    • Heidegger, Martin. La pregunta por la técnica. Editorial Anthropos, 1994.
    • Simondon, Gilbert. El modo de existencia de los objetos técnicos. Cactus, 2013.
    • Haraway, Donna. Manifiesto Cyborg. Madrid: Cátedra, 1995.
    • Zuboff, Shoshana. The Age of Surveillance Capitalism. PublicAffairs, 2019.
    • Han, Byung-Chul. La sociedad del cansancio. Herder, 2012.
    • Latour, Bruno. Reensamblar lo social. Manantial, 2008.

    Artículo previo de esta serie: Linux ganó: por qué el software libre gobierna el mundo sin estar en tu escritorio

  • Latour y Callon: cómo los objetos piensan la ciencia

    Latour y Callon: cómo los objetos piensan la ciencia

    Redes, traducción y controversias en la producción del conocimiento


    1. Contexto y surgimiento

    Durante las décadas de 1970 y 1980, la sociología de la ciencia experimentó una transformación decisiva. En Francia, Bruno Latour y Michel Callon desarrollaron una perspectiva que rompió con las visiones estructuralistas y economicistas de la actividad científica. Su propuesta, conocida como Teoría del Actor-Red (ANT, por sus siglas en inglés), cambió el modo de entender la relación entre conocimiento, tecnología y sociedad.

    Frente a la idea de la ciencia como un campo (Bourdieu) o una arena (Knorr-Cetina), Latour y Callon conciben la práctica científica como una red heterogénea donde humanos y no humanos participan en pie de igualdad en la producción del conocimiento.


    2. Los objetos como actores

    Uno de los postulados centrales de la ANT es el principio de simetría generalizada: los objetos, las máquinas, los instrumentos o los documentos tienen agencia, en tanto intervienen y modifican las acciones humanas. No son meros medios, sino participantes activos en el tejido sociotécnico.

    Así, un microscopio, un protocolo experimental o un gráfico estadístico “actúan” porque configuran lo que los científicos pueden ver, medir o comunicar. La ciencia deja de ser un relato de héroes humanos para volverse una historia de asociaciones materiales y discursivas.


    3. El concepto de traducción

    Para explicar cómo se forman y estabilizan estas redes, Latour y Callon introducen el concepto de traducción. La traducción es el proceso mediante el cual un actor logra que otros adopten sus objetivos, redefiniendo sus intereses y roles en el proceso. Es una forma de negociación y alineamiento de fuerzas.

    Callon (1986) lo ejemplifica magistralmente en su estudio sobre la pesca de la vieira de Saint-Brieuc, donde científicos, pescadores y moluscos interactúan en una red de intereses mutuos. La red científica sólo se estabiliza cuando los distintos actores —humanos y no humanos— son traducidos hacia un propósito común.


    4. Ejemplo: Pasteur y el poder de las redes

    Latour, en The Pasteurization of France (1988), muestra cómo Louis Pasteur logró transformar el conocimiento microbiológico en una fuerza social y política. No lo hizo solo: lo acompañaron microscopios, vacunas, campesinos, bacterias, laboratorios y ministerios. La “revolución pasteuriana” fue en realidad la traducción de múltiples redes hacia un mismo objetivo: domesticar los microbios y controlar la naturaleza.

    La ciencia aparece así como un proyecto colectivo de ensamblaje, donde las verdades se estabilizan porque las redes se sostienen, no porque exista un tribunal epistemológico superior.


    5. Diferencias con Knorr-Cetina y Bourdieu

    Aunque comparten el interés por las prácticas concretas, Latour y Callon se distancian de Knorr-Cetina en un punto clave: ella mantiene un horizonte “epistémico” (la producción del conocimiento), mientras que la ANT elimina la frontera entre lo social y lo científico.

    Comparado con Bourdieu, el cambio es aún más profundo. La ANT disuelve la noción de campo y sustituye la lógica de posiciones por la de redes móviles. No hay jerarquías predefinidas, sino configuraciones efímeras de poder, mediadas por humanos y objetos.


    6. Críticas y límites

    • Se le reprocha su tendencia a la despolitización: al distribuir la agencia entre todo tipo de actores, puede diluir la responsabilidad humana.
    • También se cuestiona su neutralidad analítica, ya que evita diferenciar entre causas justas e injustas, o entre saberes emancipadores y dominantes.
    • Sin embargo, su potencia heurística es indiscutible: permite estudiar la ciencia, la tecnología y la sociedad como procesos de coproducción.

    7. Legado contemporáneo

    La ANT abrió el camino para los estudios sobre controversias sociotécnicas, la ciencia en acción y la política de los objetos. Hoy sus ideas se aplican al análisis de redes digitales, inteligencia artificial, sostenibilidad y gobernanza ambiental.

    “No hay sociedad ni naturaleza: sólo redes que se hacen y deshacen.”
    Bruno Latour


    Serie: Sociología del conocimiento científico
    Próximo artículo: De la Teoría del Actor-Red (ANT) a los estudios de infraestructura y ontologías múltiples

  • Ciencia para sanar, sombras para brillar: cuando el descubrimiento choca con el poder

    Ciencia para sanar, sombras para brillar: cuando el descubrimiento choca con el poder

    La ciencia, en su sentido más noble, no nace de la ambición de premios ni del cálculo de patentes. Nace del impulso de comprender y de aliviar. Es un servicio —a la salud, a la verdad, al futuro— que pide humildad.
    Pero en la historia de ese servicio abundan también las bajezas: jerarquías que sofocan, sesgos de género, apropiaciones del mérito, intereses comerciales que se imponen al rigor.
    El “espíritu del descubridor/creador” es el que se atreve a mirar lo que nadie mira, a sostener la curiosidad incluso cuando el poder la castiga.

    A continuación, diez historias. Ocho son ya historia escrita; dos están ocurriendo hoy mismo. Todas muestran la tensión entre la ciencia como servicio y la ciencia como sistema de poder.


    1. Albert Schatz y la estreptomicina: la cura traicionada (1943–1952)

    En 1943, en un sótano de la Universidad de Rutgers, el joven Albert Israel Schatz, de 23 años, aisló a partir de un cultivo de suelo una sustancia activa contra el bacilo de Koch. La estreptomicina fue el primer antibiótico efectivo contra la tuberculosis humana, responsable entonces de millones de muertes anuales.
    Su director, Selman Waksman, patentó el hallazgo, registró las regalías y en 1952 recibió en solitario el Premio Nobel de Medicina “por el descubrimiento de la estreptomicina” (The Lancet, 2005). Schatz, indignado, demandó judicialmente. Obtuvo una fracción simbólica de las regalías y el reconocimiento póstumo como codescubridor.
    El propio tribunal que falló a su favor habló de una “injusticia institucionalizada”.

    Por qué importa: el descubrimiento salvó millones de vidas, pero la recompensa fue absorbida por las jerarquías del laboratorio. El caso ilustra cómo la estructura académica puede apropiarse del esfuerzo individual bajo el disfraz del “trabajo en equipo”.

    2. Rosalind Franklin y la fotografía robada (1952–1962)

    En 1952, Rosalind Franklin tomó en el King’s College de Londres la famosa Foto 51, un patrón de difracción de rayos X que revelaba la forma helicoidal del ADN. Su colega Maurice Wilkins mostró la imagen sin su consentimiento a James Watson y Francis Crick, quienes elaboraron el modelo de la doble hélice.
    Diez años después, el Nobel 1962 fue otorgado a ellos tres; Franklin había muerto en 1958 y, según las reglas, el premio no se concede póstumamente.
    Décadas más tarde, la revisión de los cuadernos de laboratorio demostró que su trabajo había sido decisivo (National Geographic, 2013; Nature Reviews Genetics, 2020).

    Por qué importa: el ADN es la piedra angular de la biomedicina. El episodio recuerda que la ciencia no sólo requiere datos, sino ética del reconocimiento.

    3. Banting, Best y la insulina: curar la diabetes, repartir la gloria (1921–1923)

    El cirujano Frederick Banting y el estudiante Charles Best lograron aislar la insulina en perros pancreatectomizados, y junto al bioquímico James Collip lograron purificarla para uso humano.
    El Nobel de Medicina 1923 fue concedido a Banting y John Macleod, jefe del laboratorio. En protesta, Banting compartió su mitad del premio con Best; Macleod, con Collip (Nobel Archives).

    Por qué importa: el hallazgo permitió que la diabetes pasara de sentencia a enfermedad crónica, pero el reparto del mérito reveló las grietas éticas en la ciencia aplicada.

    4. Lise Meitner: la física que explicó la fisión y fue borrada (1938–1944)

    En 1938, tras huir del nazismo, Lise Meitner calculó junto a su sobrino Otto Frisch la ecuación energética de la fisión nuclear, interpretando correctamente los experimentos de Otto Hahn.
    El Nobel de Química 1944 fue otorgado solo a Hahn. Documentos posteriores mostraron que la idea interpretativa había sido de Meitner y Frisch (Science History Institute, 2018).

    Por qué importa: Meitner rehusó participar en el Proyecto Manhattan. Su lección ética es doble: comprender la materia no implica desentenderse del uso que se hace de ella.

    5. Chien-Shiung Wu y la paridad quebrada (1956–1957)

    La física Chien-Shiung Wu realizó el experimento que demostró que la paridad no se conserva en el decaimiento beta, confirmando la hipótesis teórica de T. D. Lee y C. N. Yang.
    Ellos recibieron el Nobel de Física 1957; Wu fue omitida. Años después, el American Physical Society reconoció su rol experimental como “imprescindible” (AIP Archives).

    Por qué importa: sin su precisión experimental, la física moderna no sería la misma. Un caso clásico de invisibilización del trabajo femenino.

    6. Jocelyn Bell Burnell y los pulsos del universo (1967–1974)

    En 1967, mientras analizaba kilómetros de registros de radio, la doctoranda Jocelyn Bell Burnell detectó una señal rítmica imposible de atribuir a ruido: el primer púlsar.
    El Nobel 1974 fue para su supervisor Antony Hewish y Martin Ryle. Bell Burnell quedó fuera, aunque su nombre figuraba en el artículo original.
    En 2018 recibió el Breakthrough Prize y donó los tres millones de dólares a becas para mujeres y minorías (University of Cambridge, 2018).

    Por qué importa: es la reivindicación de la mirada atenta. Ciencia como paciencia, no como poder.

    7. Henrietta Lacks y las células inmortales (1951–actualidad)

    Henrietta Lacks, mujer afroestadounidense tratada por cáncer cervical en 1951, jamás supo que sus células serían extraídas sin consentimiento.
    Su línea celular HeLa resultó “inmortal”: permitió desarrollar vacunas, terapias génicas y fármacos oncológicos.
    En 2013, el NIH estableció un acuerdo con sus descendientes para el control del acceso a los datos genómicos (NIH Press Release, 2013).

    Por qué importa: ciencia útil que nació de una falla ética. El progreso no exime de responsabilidad moral.

    8. Ignaz Semmelweis: la higiene que la autoridad rechazó (1847–1865)

    El obstetra Ignaz Semmelweis demostró en 1847 que el simple lavado de manos reducía en más de un 80 % la fiebre puerperal.
    Fue ridiculizado, destituido y murió internado en un manicomio.
    Solo décadas después, Pasteur y Lister confirmaron sus observaciones (Britannica).

    Por qué importa: verdad incómoda contra autoridad establecida. Descubrir a favor de la vida y contra el prestigio.

    9. CRISPR: la guerra moderna por el ADN (2012–2025)

    El sistema CRISPR-Cas9, desarrollado por Jennifer Doudna y Emmanuelle Charpentier, revolucionó la edición genética.
    En 2020 recibieron el Nobel de Química, pero la disputa por las patentes entre la Universidad de California y el Broad Institute continúa.
    En mayo de 2025, un tribunal federal reabrió el caso (Reuters, 2025).

    Por qué importa: este conflicto define quién controlará el acceso a terapias génicas potencialmente curativas.

    10. Alzhéimer: fraude, prisa y captura regulatoria (2006–2025)

    a) El fraude de las imágenes

    En 2006, un paper en Nature describió la proteína Aβ*56 como clave en el Alzhéimer.
    En 2022, Science reveló manipulación de imágenes; en 2024 se inició la retractación (Science, 2022; Nature, 2024).

    b) La prisa regulatoria

    En 2021, la FDA aprobó Aducanumab (Aduhelm) con evidencia insuficiente.
    El Congreso investigó en 2022 y la OIG criticó el proceso en 2025.

    Por qué importa: la bajeza no fue robo, sino pérdida de rigor ante la presión del mercado y la desesperación social.


    Epílogo: por qué seguimos creyendo

    Las diez historias muestran que la ciencia es humana, demasiado humana. Pero también que su poder curativo es incomparable.
    Los errores, las injusticias y los sesgos no niegan su valor: lo afirman, porque nos obligan a corregir, a institucionalizar la ética, a educar el carácter tanto como el método.

    Creer en la ciencia no es creer en su pureza, sino en su capacidad de autocorrección.
    Por eso seguimos en ella: porque, aun entre sombras, sigue siendo el camino más honesto para servir a la vida.


    Referencias

    • The Lancet (2005). “Albert Schatz and the discovery of streptomycin.”
    • National Geographic (2013). “The woman who was left out of the DNA story.”
    • Nature Reviews Genetics (2020). “Reassessing Rosalind Franklin’s contribution.”
    • Nobel Prize Archives (1923). “The discovery of insulin.”
    • Science History Institute (2018). “Lise Meitner: the woman behind the split atom.”
    • American Institute of Physics (AIP) Archives. “Chien-Shiung Wu and the parity experiment.”
    • University of Cambridge (2018). “Bell Burnell’s discovery of pulsars.”
    • NIH Press Release (2013). “NIH announces HeLa Genome Data Access agreement.”
    • Encyclopaedia Britannica. “Ignaz Semmelweis.”
    • Reuters (2025). “U.S. court revives CRISPR patent dispute.”
    • Science (2022). “Image manipulation in Alzheimer’s research.”
    • Nature (2024). “Retraction notice for Lesné et al.”
    • Congressional Report (2022). “FDA’s approval of Aduhelm.”
    • Office of Inspector General (2025). “Review of accelerated approval for Alzheimer’s drugs.”
  • Linux ganó: por qué el software libre gobierna el mundo sin estar en tu escritorio

    Linux ganó: por qué el software libre gobierna el mundo sin estar en tu escritorio

    Reflexión de miércoles

    El software ya no se compra: se alquila, se actualiza, se vigila. Vivimos en una economía donde los sistemas operativos se transformaron en servicios y los usuarios en fuentes de datos. Pero mientras Windows, macOS, Android e iOS dominan la superficie visible, otro sistema gobierna silenciosamente el corazón del mundo digital.

    Del producto al servicio: cómo el capitalismo digital cambió las reglas del mercado


    Durante décadas creímos que el éxito tecnológico se medía por la cantidad de pantallas en las que aparecía un logotipo. Pero el poder real no está en la visibilidad, sino en la infraestructura. Linux, nacido como un proyecto comunitario y gratuito, no conquistó el escritorio, pero hoy sostiene el funcionamiento del planeta. Es el sistema operativo de Internet, de la nube, de los servidores, de los teléfonos, de las máquinas industriales y de los dispositivos inteligentes que nos rodean. Ganó donde los demás ni siquiera miraban.


    1. Del software como producto al servicio como negocio

    El capitalismo digital cambió el modo en que concebimos el software. Durante el siglo XX, los sistemas operativos eran productos: se compraban, se instalaban y duraban hasta que quedaban obsoletos. Pero a medida que la red se volvió omnipresente, el negocio se desplazó hacia el servicio continuo. Hoy no pagamos por un sistema, sino por su actualización, sincronización y permanencia.

    La vieja relación de oferta y demanda se rompió. Jeremy Rifkin ya lo había anticipado en La era del acceso: el capitalismo contemporáneo ya no vende bienes, sino experiencias sostenidas. Windows, macOS, Android y iOS no son realmente sistemas operativos, sino portales a ecosistemas cerrados donde cada acción se monetiza. El software se volvió una suscripción; el usuario, un flujo de ingresos recurrentes.

    Este cambio alteró los fundamentos del mercado. El producto dejó de tener un precio único y pasó a generar rentas constantes. Y donde hay renta, hay vigilancia. Como explicó Shoshana Zuboff, en el capitalismo de la vigilancia el valor no surge de la venta directa, sino de la captura y predicción de la conducta. El software ya no se limita a servir: observa, mide y anticipa.


    2. El triunfo invisible de Linux

    Mientras las grandes corporaciones transformaban el software en servicio, Linux seguía expandiéndose en silencio. Según W3Techs y Netcraft (2024):

    • El 96% de los servidores públicos del mundo corren Linux.
    • El 100% de las 500 supercomputadoras más potentes usan Linux.
    • El 70% de los smartphones lo utilizan mediante Android.
    • El 80% de los dispositivos embebidos (routers, autos, televisores) ejecutan variantes de Linux.
    • Y aunque apenas un 3% de los escritorios lo usan, controla el 99% de la infraestructura que los conecta.

    Su victoria no fue comercial, sino estructural. Linux no necesitó conquistar el escritorio porque ya dominaba todo lo demás: los cimientos físicos y lógicos del capitalismo digital. En un mundo interconectado, el poder no está en la interfaz, sino en el back-end. Y ahí, Linux reina sin oposición.

    Eric S. Raymond lo explicó en su ensayo The Cathedral and the Bazaar: el software libre prospera porque distribuye la inteligencia y la innovación entre miles de colaboradores. No necesita jerarquía ni control centralizado; su ventaja es la cooperación. Mientras los sistemas propietarios defienden su código, Linux libera el conocimiento como recurso común. Esa apertura le permitió evolucionar más rápido que cualquier producto cerrado.


    3. El mercado que se volvió red

    La economía digital ya no responde a la lógica clásica de oferta y demanda. En el siglo XXI, lo que importa no es cuántas licencias se venden, sino cuántos usuarios permanecen conectados. El valor se mide en retención, no en transacción. Es el paso de la economía del producto a la economía de la plataforma.

    Manuel Castells lo sintetizó en La era de la información: las redes son la nueva estructura del poder. Las corporaciones tecnológicas no compiten por el precio, sino por la capacidad de crear entornos cerrados donde el usuario se convierte en nodo cautivo. Apple no vende teléfonos, vende continuidad. Microsoft no vende sistemas, vende integración. Google no vende Android, vende el acceso a tu vida digital.

    En este contexto, Linux representa lo opuesto: un sistema que no captura, no suscribe, no cobra. Su valor radica en el uso libre, en la cooperación descentralizada, en la posibilidad de modificar sin pedir permiso. Y esa libertad, paradójicamente, es lo que le permitió conquistar los espacios donde el control económico es más estricto: los centros de datos, los servidores empresariales, las redes globales.


    4. Capitalismo de plataformas y privatización del entorno digital

    Shoshana Zuboff describe este nuevo orden como un capitalismo que coloniza la experiencia humana. Las plataformas transforman cada gesto en un dato y cada interacción en una oportunidad de predicción. En ese mundo, el software libre aparece como una anomalía política: una zona autónoma de cooperación no mercantil.

    Pero incluso esa autonomía tiene límites. Los gigantes de la nube —Amazon, Google, Microsoft— basan su infraestructura en Linux, pero lo integran en un modelo de negocio cerrado. Es una paradoja: el código libre alimenta sistemas que luego privatizan sus beneficios. El ideal de Richard Stallman —un software controlado por sus usuarios— convive con un capitalismo que usa Linux como herramienta de dominio.

    El software libre ganó técnicamente, pero el capitalismo ganó económicamente. Sin embargo, esa tensión no invalida la victoria de Linux: demuestra que la cooperación puede sostener la infraestructura de un mundo competitivo. La innovación ya no depende del mercado, sino de la comunidad.


    5. El fin del modelo clásico de oferta y demanda

    El modelo económico del siglo XX se basaba en un equilibrio entre productores y consumidores. Hoy, esa frontera se disolvió. Cada usuario produce datos que retroalimentan los servicios que utiliza. Somos al mismo tiempo clientes y materia prima. En esta economía circular del dato, el software libre introduce una excepción: permite usar sin ser usado.

    La vieja noción de mercado —donde el precio reflejaba el valor— se quebró. En su lugar, aparece una economía de la dependencia continua: actualizaciones automáticas, servicios en la nube, suscripciones ineludibles. Linux, en cambio, sigue ofreciendo un modelo basado en la autonomía y la transparencia. No tiene precio porque no tiene propietario.

    Yochai Benkler lo llamó producción entre pares: una forma de creación colectiva donde la motivación no es el lucro, sino el reconocimiento y el aprendizaje. Ese paradigma, marginal en los noventa, es hoy el que sostiene gran parte del ecosistema digital. El éxito de Linux demuestra que la colaboración abierta no solo es ética, sino económicamente viable.


    6. La paradoja del software libre

    Linux triunfó al desaparecer. Su invisibilidad es su fuerza. Está en el centro de la red, pero fuera del imaginario público. No tiene campañas, ni marketing, ni rostro corporativo. Su emblema —un pingüino sonriente— simboliza esa extraña mezcla de potencia y modestia: un poder que no necesita imponerse.

    En un mundo donde todo se alquila, Linux sigue siendo de todos. En un entorno de control, sigue ofreciendo libertad. En un capitalismo que privatiza la infraestructura del conocimiento, Linux permanece como un recordatorio de que otra economía es posible: una basada en la cooperación, no en la propiedad.


    Conclusión

    El software libre no derrotó a Microsoft ni a Apple en el terreno visible. Pero mientras ellos compiten por la superficie, Linux sostiene el subsuelo. Es el latido técnico de Internet, la respiración de los dispositivos, la condición silenciosa del mundo digital. Su triunfo no se mide en usuarios, sino en presencia.

    El capitalismo transformó el software en servicio y al usuario en recurso. Linux respondió con una lógica inversa: convertir el conocimiento en bien común y la cooperación en motor de progreso. No necesitó venderse, porque todos terminaron usándolo.

    “El código libre no conquistó las pantallas: conquistó la respiración de las máquinas.”


    Bibliografía orientativa

    • Benkler, Yochai. The Wealth of Networks. Yale University Press, 2006.
    • Castells, Manuel. La era de la información. Alianza Editorial, 1996.
    • Raymond, Eric S. The Cathedral and the Bazaar. O’Reilly Media, 1999.
    • Rifkin, Jeremy. La era del acceso. Paidós, 2000.
    • Stallman, Richard. Free Software, Free Society. GNU Press, 2002.
    • Zuboff, Shoshana. The Age of Surveillance Capitalism. PublicAffairs, 2019.
    • Lessig, Lawrence. Code and Other Laws of Cyberspace. Basic Books, 1999.
  • Karin Knorr-Cetina y las Arenas Transepistémicas de Investigación

    Karin Knorr-Cetina y las Arenas Transepistémicas de Investigación

    De la crítica al modelo económico de la ciencia a la sociología del conocimiento contemporáneo


    1. Contexto y obra

    La socióloga austríaca Karin Knorr-Cetina, profesora en la Universidad de Chicago y referente de los Science and Technology Studies (STS), reformuló profundamente la manera en que entendemos la práctica científica.

    Su trabajo más influyente en esta línea es el artículo:

    Knorr-Cetina, Karin (1982). “Scientific Communities or Transepistemic Arenas of Research? A Critique of Quasi-Economic Models of Science.”
    Social Studies of Science, 12(1), 101–130.

    En él introduce el concepto de arenas transepistémicas de investigación, en oposición a la idea tradicional de comunidad científica, y desarrolla una crítica a los modelos cuasi-económicos de la ciencia inspirados en Pierre Bourdieu.


    2. Crítica al modelo económico de Bourdieu

    Knorr-Cetina observa que los modelos de Bourdieu —que interpretan la ciencia como un campo de competencia simbólica, donde los investigadores luchan por prestigio y capital científico— tienden a simplificar en exceso la dinámica real de la investigación.

    A su juicio, el enfoque bourdieusiano:

    • Exagera la analogía entre ciencia y mercado.
    • Supone una estructura demasiado cerrada y autorreferencial.
    • Ignora la diversidad de actores, contextos y mediaciones no estrictamente científicas.

    Su propuesta busca superar esa mirada “cuasi-económica” y mostrar que la ciencia no es una economía simbólica, sino una red viva de prácticas, mediaciones y relaciones.


    3. De la comunidad científica a la arena transepistémica

    Frente a la noción clásica de comunidad científica (Merton), Knorr-Cetina introduce la idea de arena transepistémica. La investigación científica, sostiene, no ocurre dentro de comunidades cerradas, sino en espacios abiertos, dinámicos y heterogéneos donde confluyen actores con distintos intereses y niveles de experticia.

    Una arena transepistémica incluye:

    • Científicos, técnicos, instituciones, organismos de financiamiento, reguladores y empresas.
    • Objetos experimentales, instrumentos, materiales y tecnologías.
    • Intereses epistémicos y no epistémicos (económicos, políticos, culturales).

    La ciencia, por tanto, es una práctica interdependiente y distribuida, donde la validación del conocimiento se negocia entre actores diversos.


    4. Comparación con la noción bourdieusiana de campo

    AspectoBourdieu (campo científico)Knorr-Cetina (arena transepistémica)
    Metáfora centralCampo, competencia simbólicaArena, red de colaboración y negociación
    Unidad de análisisCampo relativamente autónomoRed abierta de actores humanos y no humanos
    Lógica dominanteLucha por capital simbólico y prestigioCirculación, mediación y coproducción
    Visión de la cienciaEstructura de poder simbólicoSistema de prácticas relacionales

    Knorr-Cetina no descarta la idea de “campo”, pero la considera insuficiente para describir la complejidad empírica de la investigación contemporánea. Propone reemplazar la competencia simbólica por una lógica de cooperación y coproducción de saberes.


    5. Alcance y desarrollo posterior

    En obras posteriores, como Epistemic Cultures: How the Sciences Make Knowledge (1999), Knorr-Cetina amplía su tesis mostrando que existen culturas epistémicas diferenciadas entre disciplinas —por ejemplo, la física de alta energía frente a la biología molecular—, cada una con sus propios objetos, instrumentos, tiempos y formas de validar conocimiento.

    Con ello consolida una visión relacional y práctica del saber científico, centrada en los procesos más que en las estructuras.


    6. Valor teórico y metodológico

    El concepto de arena transepistémica inaugura un enfoque que:

    • Desplaza el análisis desde las instituciones hacia las redes de producción de conocimiento.
    • Visibiliza la heterogeneidad epistémica y la copresencia de actores no científicos.
    • Propone una epistemología no individualista ni economicista, sensible a la mediación técnica, material y organizacional.
    • Anticipa el giro hacia la ciencia distribuida y los regímenes globales de conocimiento.

    7. Legado contemporáneo de Knorr-Cetina

    a. Inspiración para los Science and Technology Studies (STS)

    El concepto de arena transepistémica fue precursor de enfoques como la actor-network theory (Latour, Callon) y de los estudios sobre infraestructuras epistémicas. Hoy se lo emplea para analizar cómo las redes globales de investigación y los sistemas digitales configuran nuevas formas de producción de saber.

    b. Apertura hacia la sociología global del conocimiento

    Knorr-Cetina influyó en autores que estudian la circulación transnacional del conocimiento, especialmente en políticas científicas y cooperación internacional. La noción de arenas epistémicas transnacionales se usa hoy para describir la interconexión entre actores públicos, privados y académicos.

    c. Relevancia metodológica

    Su legado no es sólo conceptual, sino metodológico: enseñó a observar la ciencia como práctica situada y distribuida, atendiendo a los objetos, instrumentos e interacciones que hacen posible el conocimiento.


    “El conocimiento no se produce en soledad, sino en la intersección de mundos epistémicos distintos.”
    Karin Knorr-Cetina (1982)


    Serie: Sociología del conocimiento científico
    Próximo artículo: Latour, Callon y la traducción de lo social en la ciencia

  • Cómo instalar Arch Linux en 2025 junto a Windows (dual boot en Dell Inspiron con Intel Iris Xe)

    Cómo instalar Arch Linux en 2025 junto a Windows (dual boot en Dell Inspiron con Intel Iris Xe)

    Arch Linux sigue siendo, en 2025, una de las distribuciones más potentes, flexibles y puras del ecosistema GNU/Linux. En esta guía te explico cómo instalar Arch Linux en una Dell Inspiron con gráfica Intel Iris Xe, conviviendo con Windows sin perder tus datos ni tu instalación actual. Es el enfoque ideal si necesitás mantener Windows para programas específicos de la universidad o del trabajo, pero querés usar Linux como entorno principal de desarrollo.

    🧭 Antes de comenzar

    Este procedimiento instala Arch Linux en modo UEFI junto a Windows 10 u 11. Es fundamental:

    • Realizar una copia de seguridad completa de tus datos.
    • Verificar que Windows usa GPT + UEFI (lo normal en equipos modernos).
    • Reducir el volumen principal desde Windows, dejando al menos 50 GB libres sin asignar.
    • Desactivar Secure Boot en el BIOS/UEFI o configurarlo en modo permisivo.
    • Conservar Windows: no borraremos su partición ni su arranque.

    💿 Preparar el medio de instalación

    • Descargá la ISO más reciente de Arch Linux desde el sitio oficial.
    • Creá un USB booteable con Ventoy o Rufus (en modo GPT/UEFI).
    • Conectá el USB, reiniciá y elegí “Boot from UEFI USB” en el menú de inicio de tu Dell.

    ⚙️ Instalación paso a paso

    Una vez dentro del entorno live:

    1. Conectate a Internet (por cable o Wi-Fi con iwctl).
    2. Verificá el disco: lsblk
    3. Creá las particiones necesarias (manteniendo intacta la de Windows):
      • / (root): ext4, al menos 30 GB.
      • /home (opcional): para tus datos personales.
      • swapfile en lugar de partición swap (se configurará luego).
    4. Montá las particiones:
      mount /dev/nvme0n1pX /mnt
      mount --mkdir /dev/nvme0n1pY /mnt/boot/efi
    5. Instalá el sistema base:
      pacstrap /mnt base linux linux-firmware intel-ucode networkmanager
    6. Generá el archivo fstab:
      genfstab -U /mnt >> /mnt/etc/fstab
    7. Entrá al nuevo sistema:
      arch-chroot /mnt

    🧩 Configuración del sistema

    • Configurá el huso horario:
      ln -sf /usr/share/zoneinfo/America/Argentina/Cordoba /etc/localtime
      hwclock --systohc
    • Editá /etc/locale.gen y descomentá es_AR.UTF-8 UTF-8 y en_US.UTF-8 UTF-8.
    • Generá el locale:
      locale-gen
    • Definí un nombre de host:
      echo "archinspiron" > /etc/hostname

    🔧 Instalación del gestor de arranque (dual boot)

    Instalá GRUB con soporte UEFI y detección automática de Windows:

    pacman -S grub efibootmgr os-prober
    grub-install --target=x86_64-efi --efi-directory=/boot/efi --bootloader-id=Arch
    os-prober
    grub-mkconfig -o /boot/grub/grub.cfg

    Al reiniciar, GRUB mostrará ambas opciones: Arch Linux y Windows.

    🖥️ Primer arranque y entorno gráfico

    Activá la red y el entorno de escritorio:

    systemctl enable --now NetworkManager
    pacman -S gnome gdm
    systemctl enable --now gdm

    Para tu GPU Intel Iris Xe:

    pacman -S mesa vulkan-intel intel-media-driver

    GNOME detectará automáticamente la aceleración por hardware.

    🤝 Integración con Windows

    • Instalá soporte NTFS: pacman -S ntfs-3g
    • Sincronizá el reloj:
      timedatectl set-local-rtc 1
    • Podés montar tus particiones NTFS en /mnt/windows o crear una dedicada para compartir archivos.

    🚀 Postinstalación y mantenimiento

    • Creá tu usuario y asignale permisos sudo.
    • Instalá el AUR helper yay para paquetes extra.
    • Actualizá los mirrors:
      pacman -S reflector
      reflector --latest 10 --sort rate --save /etc/pacman.d/mirrorlist
    • Mantené tu sistema con:
      sudo pacman -Syu

    🧩 Conclusión

    Instalar Arch Linux junto a Windows no es solo un ejercicio técnico: es una manera de equilibrar libertad y compatibilidad. Windows queda ahí para las herramientas que la universidad o algunos entornos privativos aún exigen; pero Arch es tu espacio de control total. Configurado con GNOME, tu Inspiron se convierte en un entorno de desarrollo elegante, eficiente y perfectamente adaptado a vos.

    Y cada vez que arrancás Arch, recordás algo esencial: entender tu sistema es entender tu herramienta de trabajo.

  • Gobernar no es demostrar: la política como arte de decidir

    Gobernar no es demostrar: la política como arte de decidir

    Reflexión de viernes

    Este artículo inaugura una nueva línea de pensamiento donde la política y la ciencia se cruzan, se confunden y se separan. Una reflexión sobre el acto de gobernar en tiempos de incertidumbre, cuando los datos abundan, pero las decisiones siguen siendo humanas.

    La política no busca demostrar, sino decidir con responsabilidad.


    Vivimos en una época que idolatra la evidencia. Toda decisión, para ser legítima, parece necesitar una planilla de Excel, una simulación estadística o un informe técnico que la respalde. Es la era de la tecnopolítica, donde gobernar se presenta como una cuestión de método más que de juicio. Pero gobernar —como recordaba Max Weber en La política como vocación— no es una ciencia exacta, sino una práctica que combina convicción, responsabilidad y, sobre todo, sentido de realidad. La ciencia explica; la política decide.

    Confundir ambas esferas ha sido uno de los mayores malentendidos de nuestra modernidad. Desde la ilusión tecnocrática que cree que los problemas sociales se resuelven con algoritmos, hasta los populismos que niegan toda evidencia empírica, transitamos entre dos extremos: el exceso de racionalidad y el desprecio por ella. En ambos casos, se olvida lo esencial: que la política no es una demostración lógica, sino una forma de acción en la incertidumbre.


    La tentación tecnocrática

    Gobernar “según la ciencia” suena sensato. Pero implica una trampa. Supone que las decisiones políticas pueden deducirse de hechos objetivos, como si la realidad fuera una ecuación a resolver. La pandemia de COVID-19 fue el laboratorio de esa ilusión: especialistas convertidos en autoridades morales, políticos que se escudaban en comités de expertos y sociedades que confundieron la evidencia con el mandato. La ciencia ofrecía datos, pero la política debía decidir qué hacer con ellos. No son lo mismo.

    La filósofa Hannah Arendt lo advirtió en La condición humana: la acción política se distingue de la labor técnica precisamente porque su fin no es fabricar cosas, sino construir un mundo común entre seres diversos. Allí donde la ciencia busca verdad, la política busca sentido compartido. Y ese sentido no se demuestra: se debate, se acuerda, se conquista.


    Entre el dato y el valor

    El científico trabaja en el terreno de lo verificable; el político, en el de lo posible. Uno busca consistencia lógica; el otro, coherencia ética. La evidencia puede mostrar lo que es, pero no lo que debería ser. Karl Popper lo sabía bien: ninguna cantidad de observaciones empíricas basta para justificar un valor moral. Las democracias se derrumban cuando olvidan esta distinción.

    Cuando un gobierno afirma que sus decisiones son “científicas”, en realidad está desplazando la responsabilidad ética hacia el método. La ciencia, como advirtió Jürgen Habermas, no puede reemplazar la deliberación pública. Sin debate, el dato se vuelve dogma. Sin pluralidad, la evidencia se convierte en ideología. Por eso, toda política que aspire a legitimarse únicamente en la ciencia termina traicionando tanto a la política como a la ciencia misma.


    La política como ética de la decisión

    Weber describió al político auténtico como aquel que combina la pasión por una causa con la mesura del juicio. Gobernar exige carácter, porque implica decidir con información incompleta, con riesgos, con dilemas irresueltos. No hay modelo predictivo capaz de calcular el costo moral de una decisión humana. Entre la certeza del laboratorio y la incertidumbre del gobierno se abre el espacio donde nace la responsabilidad.

    Ahí radica la diferencia fundamental: la ciencia puede describir consecuencias, pero no asumirlas. La política, en cambio, se define por asumir las consecuencias de sus actos. En eso consiste su dimensión ética: no en conocer más, sino en responder por lo que se hace. La política no se mide por la exactitud de sus datos, sino por la integridad de sus decisiones.


    El poder de no saber

    El problema de nuestro tiempo no es la falta de conocimiento, sino el exceso de confianza en él. Queremos que los números hablen por nosotros, que los algoritmos tomen decisiones más justas, que la inteligencia artificial corrija nuestros sesgos. Pero lo humano no desaparece: se desplaza. Y cuando lo hace sin conciencia, el poder se oculta tras el lenguaje de la objetividad.

    Arendt llamaba a esto “la abdicación del juicio”: cuando el pensamiento se somete a la evidencia y deja de evaluar el sentido de los actos. En un mundo saturado de información, el verdadero coraje político consiste en volver a preguntar qué es lo correcto, no solo qué es eficiente. Gobernar es decidir en medio de la niebla, no al amparo de un manual.


    El riesgo de confundir razón con justicia

    En nombre de la racionalidad, se han cometido los mayores errores políticos. La planificación económica total, la ingeniería social, los experimentos que reducen la vida a una variable estadística. Cada vez que la política quiso comportarse como una ciencia, terminó deshumanizándose. Y cada vez que la ciencia fue sometida a la política, perdió su rigor.

    La democracia moderna necesita un equilibrio delicado: la ciencia como guía, la política como decisión. Ni tecnocracia sin alma, ni populismo sin razón. Gobernar implica reconocer que la verdad no se impone: se construye entre voces que difieren. En ese sentido, la política es el arte de lo imperfecto, el intento de convertir la incertidumbre en convivencia.


    De la evidencia a la sabiduría

    Podemos medir casi todo: el crecimiento económico, la contaminación, la satisfacción ciudadana. Pero ninguna cifra reemplaza la experiencia del juicio. Saber no es lo mismo que comprender. Habermas insistía en que la legitimidad democrática depende del diálogo, no del experimento. La política es una conversación inacabada entre saberes, pasiones y visiones del bien común.

    Tal vez sea hora de devolverle al gobierno su condición humana: errática, contradictoria, pero capaz de aprender. Gobernar no es aplicar fórmulas, sino improvisar con prudencia. No es demostrar que se tiene razón, sino escuchar lo que aún no sabemos.


    La política como cuidado del mundo

    Si la ciencia es una manera de entender el mundo, la política es una manera de sostenerlo. Ambas se necesitan, pero ninguna puede sustituir a la otra. En tiempos de crisis ecológica, desigualdad y automatización, el desafío no es producir más conocimiento, sino usarlo con sabiduría. La responsabilidad política comienza donde la certeza científica termina.

    La política, en su sentido más noble, no busca dominar la realidad, sino acompañarla. Es un trabajo paciente de reparación, de cuidado, de mediación. Si la ciencia se pregunta cómo es el mundo, la política se pregunta qué haremos con él. Y en esa diferencia se juega nuestro futuro común.


    “Gobernar es decidir sabiendo que nunca sabremos del todo.”


    Bibliografía orientativa

    • Weber, Max. La política como vocación. Madrid: Alianza, 2003.
    • Arendt, Hannah. La condición humana. Barcelona: Paidós, 1993.
    • Popper, Karl. La sociedad abierta y sus enemigos. Buenos Aires: Paidós, 1985.
    • Habermas, Jürgen. Conocimiento e interés. Madrid: Taurus, 1982.
    • Weber, Max. El científico y el político. Buenos Aires: Prometeo, 2005.
  • Código abierto, comunidad y confianza: lecciones del caso Arch Linux Spark RAT

    Código abierto, comunidad y confianza: lecciones del caso Arch Linux Spark RAT

    El reciente incidente en el Arch User Repository (AUR) —detectado por It’s FOSS— expuso un paquete malicioso que contenía un remote access trojan (RAT).
    El supuesto paquete google-chrome-stable, subido por un usuario nuevo, ejecutaba un script que descargaba código remoto.
    Gracias a la rápida reacción de la comunidad, el paquete fue eliminado antes de causar mayores daños.

    Este episodio sirve como recordatorio del papel esencial de la transparencia y vigilancia comunitaria en el ecosistema del software libre.


    La importancia de la transparencia en el software comunitario

    1. Revisión abierta del código

    En los proyectos de código abierto, cualquier persona puede inspeccionar y auditar el código.
    Esta apertura permite identificar errores o comportamientos sospechosos antes de que se propaguen.
    La revisión por pares es un mecanismo de control social efectivo.

    2. Responsabilidad y trazabilidad

    La exposición pública del código genera responsabilidad: los desarrolladores saben que sus aportes pueden ser evaluados.
    La trazabilidad del historial de cambios fortalece la confianza colectiva.

    3. Reacción rápida ante incidentes

    A diferencia del software propietario, donde los parches dependen de un único proveedor, la comunidad puede actuar de forma inmediata.
    En el caso de la AUR, la detección y eliminación del paquete fue casi instantánea.

    4. Confianza y legitimidad

    La transparencia no solo mejora la seguridad técnica, sino también la legitimidad institucional de los proyectos abiertos.
    La comunidad percibe que no hay nada que ocultar.

    Limitaciones

    Sin embargo, la apertura no es sinónimo de infalibilidad:

    • No todos los usuarios revisan los scripts antes de instalarlos.
    • La revisión voluntaria puede ser insuficiente ante un alto volumen de contribuciones.
    • Falta de automatización o validación previa en algunos repositorios.

    Por eso, la transparencia debe complementarse con políticas de revisión, automatización y alertas.


    La reacción de la comunidad Arch Linux

    La respuesta fue ejemplar:

    • Un usuario reportó el comportamiento sospechoso.
    • Los administradores de la AUR eliminaron el paquete y emitieron una alerta pública.
    • La comunidad debatió mejoras en los mecanismos de validación y autenticación de paquetes.

    Este proceso demostró la capacidad de autorregulación que distingue a los proyectos verdaderamente comunitarios.


    Comparación con el software propietario

    Aspecto Código abierto Software propietario
    Transparencia Revisión pública del código Solo el proveedor puede auditar
    Corrección de fallos Comunitaria y rápida Depende de la empresa
    Costos Reducidos o nulos Licencias, soporte, dependencia
    Vulnerabilidades ocultas Detectables por la comunidad Pueden permanecer años sin corregirse

    Ejemplos de software propietario con fallos persistentes son comunes:
    vulnerabilidades en sistemas como Windows Server o Oracle Java SE permanecieron años sin parchearse, generando costos millonarios en soporte y seguridad.

    Esto muestra que cerrar el código no equivale a protegerlo; al contrario, la falta de revisión externa puede agravar la deuda técnica.


    Conclusión

    El caso del Spark RAT en Arch Linux no fue una catástrofe, sino una lección: la apertura y colaboración comunitaria son los mecanismos más eficaces para construir ecosistemas tecnológicos resilientes y confiables.

    La transparencia no solo es un valor ético, sino una ventaja estructural.
    Permite que el conocimiento, la vigilancia y la responsabilidad se distribuyan entre muchos, no entre pocos.

    En una era donde los riesgos digitales se multiplican, el modelo del software libre nos recuerda que la seguridad nace del escrutinio, no del secreto.

  • Por qué uso Arch Linux (y GNOME) en mi escritorio y Debian en mis servidores

    Por qué uso Arch Linux (y GNOME) en mi escritorio y Debian en mis servidores

    Uso Arch Linux en mi desktop porque me permite trabajar exactamente como quiero. No es un sistema pensado para esconderte las tripas del software, sino para dejarte interactuar con ellas. En Arch nada está preconfigurado: cada paquete, cada servicio, cada detalle lo definí yo. Ese proceso —que muchos ven como un obstáculo— es precisamente lo que me da libertad. No tengo que “adaptarme” al sistema; el sistema se adapta a mí.

    Arch es rápido, limpio y predecible. Gracias a su modelo rolling release siempre tengo acceso al software más reciente sin depender de actualizaciones forzadas o versiones intermedias. Y con el AUR instalo lo que necesito —inclusive herramientas de nicho o en desarrollo activo— con la misma simplicidad que si vinieran del repositorio oficial. Además, la Arch Wiki es un recurso invaluable: documentación clara, mantenida por gente que entiende y comparte.

    En servidores, en cambio, uso Debian. Ahí la prioridad es otra: estabilidad y previsibilidad para infraestructura que no puede fallar. Debian es la roca sobre la que corro producción; Arch es el laboratorio donde experimento, desarrollo y aprendo. No son opuestos: se complementan.

    En el escritorio elijo GNOME. Algunos dicen que es “minimalista” o “poco personalizable”; para mí, eso es una virtud. KDE es excelente, pero a mí me sobran los menús y las opciones redundantes. GNOME me ofrece una interfaz limpia, coherente y sin ruidos. Y si quiero personalizar, puedo: lo tengo exactamente a mi gusto.

    Con unas cuantas extensiones, GNOME se comporta casi como un gestor tiling, ideal para desarrollar sin perder foco:

    • Material Shell – transforma el flujo en tiling real, con espacios organizados y navegación por teclado.
    • Pop Shell – mosaico automático y atajos inteligentes inspirados en System76.
    • Tiling Assistant – liviana y suficiente si prefiero mantener el GNOME clásico con mosaicos útiles.
    • Dash to Dock o Dash to Panel – barra y lanzador integrados, más prácticos para el día a día.
    • Just Perfection – afina la interfaz: quito lo que no suma y dejo solo lo que uso.

    Al final, Arch + GNOME no es una pose ni un “porque sí”. Es una forma de trabajo: entender, ajustar, optimizar. Cada actualización me recuerda que sigo al mando; cada extensión, que puedo construir el entorno que necesito. Vuelvo a Arch todos los días por lo mismo que enseño en el aula: cuando entendés cómo funciona, lo podés mejorar. Y cuando lo mejorás, también te mejora a vos.

  • Instalar bspwm en Fedora

    Instalar bspwm en Fedora

    Guía técnica completa para entornos profesionales y docentes


    🧭 1) ¿Qué es Fedora?

    Fedora es una distribución GNU/Linux patrocinada por Red Hat, reconocida por su estabilidad, innovación y políticas de software libre.
    Se caracteriza por incluir versiones actualizadas del kernel y paquetes, manteniendo a la vez una fuerte orientación a la seguridad mediante SELinux.

    Ofrece múltiples ediciones o spins (GNOME, KDE, XFCE, i3, Sway, etc.), y sirve como base de prueba para tecnologías que luego se integran en Red Hat Enterprise Linux.

    Ventajas principales:

    • Software siempre actualizado y probado.
    • Integración nativa con SELinux.
    • Excelente documentación y soporte de comunidad.

    Desventajas:

    • Ritmo de actualización rápido (puede requerir mantenimiento periódico).
    • Algunas configuraciones avanzadas no vienen preinstaladas por defecto.

    🪟 2) ¿Qué es bspwm?

    bspwm (Binary Space Partitioning Window Manager) es un gestor de ventanas en mosaico (tiling) para X11.
    Organiza las ventanas como un árbol binario, donde cada división crea un espacio asignado a una aplicación.
    Se configura a través de scripts shell y se controla mediante bspc (un cliente que envía comandos al daemon bspwm).

    Características técnicas:

    • Arquitectura modular:
      bspwm (daemon) + sxhkd (gestor de atajos) + bspc (cliente de control).
    • Sin configuraciones internas fijas: todo se maneja vía shell.
    • Extremadamente liviano y rápido.
    • Alta scriptabilidad: ideal para automatizar disposiciones de ventanas y flujos de trabajo.

    ⚖️ 3) Comparativa rápida: bspwm vs i3 vs Sway

    Criteriobspwm (X11)i3 (X11)Sway (Wayland)
    Backend gráficoXorgXorgWayland
    FilosofíaScriptable (bspc + sxhkd)Declarativa y estableCompatible con i3, Wayland nativo
    AtajosExternos (sxhkd)IntegradosIntegrados
    Reglas de ventanasPotentes (bspc rule)Limitadas (for_window)Similares a i3
    VM y compatibilidadExcelente (sin GPU 3D)ExcelenteRequiere virtio-gpu
    Curva de aprendizajeMediaBajaMedia-alta
    Ideal paraUsuarios avanzados y scriptingUsuarios nuevos o productivosEquipos modernos con Wayland

    Conclusión:

    • bspwm es perfecto para quienes desean control total mediante scripts.
    • i3 es ideal para quienes priorizan simplicidad inmediata.
    • Sway es el futuro (Wayland), pero demanda hardware compatible.

    🧰 4) Requisitos previos

    • Fedora instalado (Workstation, Server o Minimal).
    • Acceso a internet y privilegios sudo.
    • Un Display Manager (GDM, LightDM o SDDM).
    • Sistema gráfico basado en X11 (no Wayland).

    💡 Si usas VM: GNOME Boxes / Virt-Manager (QEMU/KVM) brinda la mejor compatibilidad con tiling WMs.


    ⚙️ 5) Instalación paso a paso

    Paso 1: Instalar los paquetes esenciales

    sudo dnf install -y bspwm sxhkd rofi polybar picom alacritty feh

    Paso 2: Crear las carpetas de configuración

    mkdir -p ~/.config/{bspwm,sxhkd,polybar,picom}

    Paso 3: Copiar las plantillas oficiales

    cp /usr/share/doc/bspwm/examples/bspwmrc ~/.config/bspwm/
    cp /usr/share/doc/bspwm/examples/sxhkdrc ~/.config/sxhkd/
    chmod +x ~/.config/bspwm/bspwmrc

    🧩 6) Configuración básica funcional

    🧱 ~/.config/bspwm/bspwmrc

    #!/bin/sh
    
    bspc monitor -d 1 2 3 4 5 6 7 8 9 10
    
    bspc config border_width         2
    bspc config window_gap           8
    bspc config split_ratio          0.52
    bspc config border_focus_color   "#5294E2"
    bspc config border_normal_color  "#444444"
    
    # Lanzar servicios
    pgrep -x sxhkd >/dev/null || sxhkd &
    picom --config ~/.config/picom/picom.conf &
    ~/.config/polybar/launch.sh &
    feh --bg-fill /usr/share/backgrounds/default.png 2>/dev/null &

    ⌨️ ~/.config/sxhkd/sxhkdrc

    # Terminal
    super + Return
      alacritty
    
    # Menú de aplicaciones
    super + d
      rofi -show drun
    
    # Cerrar ventana
    super + q
      bspc node -c
    
    # Navegar entre ventanas
    super + {h,j,k,l}
      bspc node -f {west,south,north,east}
    
    # Mover ventanas
    super + shift + {h,j,k,l}
      bspc node -s {west,south,north,east}
    
    # Cambiar de escritorio
    super + {1-9,0}
      bspc desktop -f '^{1-9,10}'

    📊 ~/.config/polybar/launch.sh

    #!/usr/bin/env bash
    killall -q polybar || true
    while pgrep -u "$UID" -x polybar >/dev/null; do sleep 0.5; done
    polybar example & disown
    chmod +x ~/.config/polybar/launch.sh

    ⚙️ ~/.config/polybar/config.ini

    [bar/example]
    width = 100%
    height = 28
    modules-left = workspaces
    modules-right = date

    [module/workspaces]

    type = internal/xworkspaces

    [module/date]

    type = internal/date interval = 1 date = %Y-%m-%d %H:%M

    💨 ~/.config/picom/picom.conf

    backend = "xrender";
    vsync = true;
    shadow = false;
    fading = false;

    🚀 7) Iniciar bspwm

    Con gestor de sesión (GDM/LightDM)

    Cerrá sesión → seleccioná bspwm → iniciar sesión.

    Sin display manager (modo consola)

    sudo dnf install -y xorg-x11-xinit
    echo 'exec bspwm' > ~/.xinitrc
    startx

    🧩 8) Solución de problemas comunes

    ProblemaSolución
    No responden los atajosAsegurate de que sxhkd está corriendo (pgrep -x sxhkd)
    No aparece la barraVerificá ~/.config/polybar/launch.sh y permisos de ejecución
    Parpadeo o sombras rarasEditá ~/.config/picom/picom.conf o no inicies picom
    Pantalla negra inicialPuede deberse a fondo o compositor; comentá las líneas finales del bspwmrc
    Atajos con tecla “Super” no funcionan en VMUsá Alt (Mod1) o habilitá “Grab keyboard” en tu hipervisor

    📈 9) Cuándo elegir bspwm

    Si querés…Elegí…
    Control total, scripting y reglas personalizadasbspwm
    Configuración rápida y establei3
    Entorno Wayland modernoSway
    Usarlo en VM sin GPU 3Di3 o bspwm

    ✅ 10) Resumen rápido

    sudo dnf install bspwm sxhkd rofi polybar picom alacritty feh
    cp /usr/share/doc/bspwm/examples/bspwmrc ~/.config/bspwm/
    cp /usr/share/doc/bspwm/examples/sxhkdrc ~/.config/sxhkd/
    chmod +x ~/.config/bspwm/bspwmrc

    Luego:

    • Seleccioná bspwm al iniciar sesión (o startx).
    • Editá sxhkdrc y bspwmrc a gusto.
    • Disfrutá de un entorno minimalista, rápido y perfectamente scriptable.

    🧠 Conclusión

    bspwm en Fedora combina lo mejor de ambos mundos:
    la base sólida y moderna de Fedora con la flexibilidad extrema de un tiling manager scriptable.
    Ideal para usuarios avanzados, docentes o entornos donde la eficiencia, la reproducibilidad y el control fino son prioridad.

    🧩 “bspwm no te impone un flujo de trabajo; te deja diseñarlo.”