top of page

Filosofía de la tecnología

Grok
Grok

Introducción

La filosofía de la tecnología es hoy un campo de estudio dinámico y de gran interés, después de haber permanecido durante siglos en los márgenes de la reflexión filosófica. El influjo creciente de las tecnologías en todos los aspectos de la vida contemporánea ha resquebrajado prejuicios históricos que consideraban la técnica como un saber “menor”, meramente instrumental, ajeno a las altas capacidades racionales que tradicionalmente ocuparon a la filosofía. En efecto, desde la Antigüedad se sostuvo una jerarquía entre el conocimiento teórico y la práctica técnica: se valoró más la contemplación y la ciencia “pura”, relegando la técnica a un estatus inferior, como simple habilidad práctica.


No obstante, a medida que la técnica y posteriormente la tecnología (técnica basada en ciencia moderna) transformaron radicalmente la sociedad –desde la Revolución Industrial hasta la era digital–, los filósofos comenzaron a prestar mayor atención a la relación entre el ser humano, la técnica y la sociedad. La filosofía de la tecnología emergió así como disciplina explícita en el siglo XX, reconociendo que las herramientas, máquinas y sistemas técnicos no son neutros, sino que moldean nuestra manera de vivir y entender el mundo. Este ensayo presenta una evolución histórica de las ideas filosóficas sobre la tecnología, desde los pensadores antiguos (como Platón y Aristóteles) hasta los filósofos contemporáneos (Heidegger, Simondon, Marcuse, Feenberg, Donna Haraway, Yuk Hui, entre otros). A lo largo del texto se analizan críticamente las concepciones de autores clave sobre la técnica, explicando cómo cada uno concibió la relación entre el ser humano, la técnica y la sociedad, y cómo sus ideas responden a las preocupaciones de su época. Asimismo, se dedica una sección a discutir temas contemporáneos candentes –inteligencia artificial, transhumanismo, vigilancia digital, redes sociales, automatización y ética tecnológica– vinculándolos con las reflexiones filosóficas previas y actuales.


El ensayo se estructura cronológicamente en tres grandes apartados –filosofía antigua, filosofía moderna y filosofía contemporánea de la tecnología– seguidos de una sección sobre desafíos actuales, para finalmente ofrecer algunas conclusiones.


Orígenes antiguos: téchne en Platón y Aristóteles

La reflexión filosófica sobre la técnica se remonta a la Antigua Grecia, donde se empleaba el término téchne (τέχνη) para referirse al saber hacer artesanal y a las artes productivas en general. Platón (427–347 a.C.) y Aristóteles (384–322 a.C.) sentaron las bases de la discusión al caracterizar de modo distinto la relación entre conocimiento teórico y conocimiento técnico. Platón tendió a jerarquizar el conocimiento, otorgando primacía a la sabiduría contemplativa sobre las habilidades prácticas: estableció una distinción a favor del conocimiento teórico abstracto por encima de la actividad manual basada en la práctica. En diálogos platónicos, como el Gorgias o el Protágoras, se aprecia cierto recelo hacia los saberes técnicos cuando no están guiados por la filosofía: por ejemplo, Platón critica la retórica por no ser un technê genuino orientado al bien, a diferencia de la medicina o la navegación que sí lo serían porque buscan un fin útil y moralmente valioso. En el mito de Prometeo narrado en el Protágoras, se sugiere que las téchnes (artes técnicas) fueron un regalo divino para la supervivencia humana, pero Platón deja claro que las invenciones técnicas por sí solas no garantizan la virtud ni la sabiduría auténtica. Para el filósofo ateniense, la técnica debía subordinarse a la idea de bien: una téchne bien encaminada poseía un componente ético, debía buscar la excelencia y satisfacer las necesidades humanas básicas con eficiencia y prudencia. En síntesis, Platón reconocía el valor de la técnica (sobre todo en cuanto a su carácter racional para lograr fines útiles), pero la supeditaba al conocimiento filosófico y a una finalidad moral elevada.


Por su parte, Aristóteles otorgó a la téchne un lugar más definido dentro de su clasificación de los saberes. En la Ética a Nicómaco (Libro VI), Aristóteles describe la téchne como una de las formas de conocimiento junto con la ciencia (episteme), la prudencia práctica (phronesis) y la sabiduría contemplativa (sophia). La téchne es, para Aristóteles, un saber productivo (poiética): la capacidad de crear algo conforme a un conocimiento racional de las causas. A diferencia del improvisado empirismo del artesano sin teoría, el verdadero técnico conoce el porqué de su hacer, no solo el qué hace. Como explica Aristóteles en la Metafísica, “los que poseen la téchne conocen las razones de las cosas, mientras que los empíricos no; el empírico conoce el hecho (lo que produce), pero solo el técnico conoce la causa” (citado por Dussel). La téchne implica entonces un saber universalizable y basado en principios, que eleva al artesano por encima de la simple experiencia repetitiva. Además, Aristóteles introdujo el término tecnología (technología) justamente para designar el estudio (logos) de la téchne, anticipando una reflexión sistemática sobre las artes técnicas. Sin embargo, aunque dignifica la téchne considerándola un saber racional, Aristóteles mantiene una visión teleológica de la naturaleza que limita el papel de la técnica: para él, el orden natural es intrínsecamente bueno y perfecto, por lo que la acción técnica correcta consiste en imitar y colaborar con la naturaleza, no en forzarla. En la concepción aristotélica (compartida en gran medida por los griegos), la técnica debe respetar los fines naturales; el artesano trabaja con la naturaleza más que contra ella. Esta postura contrasta fuertemente con la visión moderna posterior, donde la tecnología buscará dominar y explotar la naturaleza como recurso.


En resumen, en la filosofía griega clásica la técnica (téchne) se valoraba como conocimiento práctico racional (especialmente en Aristóteles), pero siempre subordinada a la contemplación teórica y a la armonía con el orden natural y moral. Platón privilegió el saber filosófico por sobre la destreza técnica, temiendo que sin guía ética la técnica pudiera desviarse de la virtud. Aristóteles sistematizó la idea de técnica como saber hacer basado en causas, legítimo y enseñable, si bien concebido para complementar la naturaleza en vez de transformarla radicalmente. Estas ideas antiguas sentaron las bases del pensamiento posterior: la distinción entre conocimiento puro y aplicado, entre naturaleza y artefacto, y la cuestión de la moralidad en el uso de la técnica han permanecido como ejes del debate hasta nuestros días.


De la modernidad a la Ilustración: nueva valoración de la técnica (Descartes, Bacon, Kant, Hegel)

Tras la larga época medieval –donde la técnica fue generalmente considerada un oficio práctico apartado de las cuestiones teológicas o metafísicas–, el Renacimiento y el inicio de la Modernidad (siglos XVI-XVII) trajeron un cambio drástico en la actitud hacia la técnica. Inventos como la imprenta, la pólvora, la brújula, junto con el auge de la ciencia experimental, prepararon el terreno para una reevaluación filosófica de la tecnología. Dos figuras emblemáticas en este giro son Francis Bacon y René Descartes, quienes integran el saber técnico con el proyecto del conocimiento moderno.


El filósofo inglés Francis Bacon (1561–1626) defendió abiertamente el valor del conocimiento útil para mejorar la vida humana. En oposición a la escolástica estéril, Bacon proclamó que “no hay para las ciencias otro objetivo verdadero y legítimo que dotar a la vida humana de nuevos descubrimientos y recursos” útiles. Bajo su lema "saber es poder", concibió la ciencia aplicada como medio de progreso social y dominio benéfico de la naturaleza. Esta postura inaugura un optimismo tecnológico característico de la Ilustración: la confianza en que la combinación de ciencia y técnica traerá bienestar material y aumento del control humano sobre su entorno.


En la misma línea, René Descartes (1596–1650) –padre del racionalismo moderno– otorgó a la tecnología un rol central en su visión de la “filosofía práctica”. Descartes consideró que el fin último del conocimiento científico era servir para “hacernos como dueños y poseedores de la naturaleza”. En la célebre última parte de su Discurso del método (1637), imaginó una ciencia nueva capaz de conocer las fuerzas naturales (fuego, aire, astros, etc.) tan bien como un artesano conoce sus oficios, y con ello aplicarlas a todos los usos que convengan, liberando a la humanidad de trabajos penosos y enfermedades. Según Descartes, reemplazando la vana especulación escolástica por este saber práctico, podríamos “aprovechar [las fuerzas naturales] en todos los usos apropiados, y de esa suerte convertirnos en dueños y poseedores de la naturaleza”. Este sometimiento de la naturaleza, aclara, es deseable porque redundará en comodidad, salud y prosperidad para todos los hombres. Se vislumbra aquí el ideal ilustrado de progreso técnico ilimitado al servicio del bienestar humano. Descartes llega a afirmar que la filosofía (entendida ahora como ciencia unificada) debe orientarse a transformar el mundo, y no solo a interpretarlo, anticipando así la actitud activa que definirá la modernidad.


Tanto en Bacon como en Descartes se aprecia un cambio fundamental respecto de los griegos: la naturaleza deja de verse como un orden perfecto al cual ajustarse, para pasar a ser un objeto de intervención técnica. La razón humana se arroga el derecho de investigar, manipular y utilizar la naturaleza sistemáticamente, con el fin expreso de mejorar la condición humana. Esta mentalidad tecnocientífica se consolidó durante la Ilustración del siglo XVIII, donde el avance técnico-científico se equiparó al progreso de la civilización. Pensadores ilustrados como Immanuel Kant (1724–1804) vieron en el desarrollo de las artes mecánicas y las ciencias un signo del uso público de la razón y de la marcha hacia la autonomía humana. Kant, en su ensayo ¿Qué es la Ilustración? (1784), proclamó el lema Sapere aude (atrévete a saber), que incluía el coraje de emplear el conocimiento para salir de la tutela e inmadurez. Si bien Kant no escribió específicamente sobre “filosofía de la tecnología”, en su filosofía de la historia sugirió que la especie humana progresa culturalmente gracias a una “insociable sociabilidad” que impulsa innovaciones y adelantos técnicos, extendiendo las capacidades humanas en pos de la autonomía y el dominio racional de la naturaleza (Kant, 1784/2004). De hecho, Kant consideraba que el “progreso técnico” apoyaba el desarrollo moral: en Hacia la paz perpetua (1795) propuso una federación cosmopolita facilitada en parte por el comercio y los inventos (como la navegación transoceánica) que unían a las naciones. Así, para Kant el crecimiento de la técnica es parte del despliegue de la razón práctica en el mundo, aunque siempre subordinado a imperativos éticos universales (no se debe instrumentalizar al ser humano, imperativo categórico). En suma, la Ilustración abrazó la tecnología como continuación de la razón ilustrada, confiando en que la ciencia y la técnica, guiadas por la moral y el derecho, conducirían a la humanidad hacia un futuro mejor y más ilustrado.


Por otro lado, G.W.F. Hegel (1770–1831), representante cumbre del idealismo alemán post-ilustrado, incorporó la técnica dentro de su visión dialéctica de la Historia. Aunque Hegel no dejó una obra dedicada exclusivamente a la tecnología, sus escritos reconocen el papel del trabajo y las herramientas en el desarrollo del espíritu. En la Fenomenología del Espíritu (1807), la famosa dialéctica del amo y el esclavo ilustra cómo, mediante el trabajo manual y el uso de instrumentos, la conciencia-sierva transforma la naturaleza y simultáneamente se transforma a sí misma, ganando conciencia de su propia libertad. Hegel destaca que el esclavo, al temer la muerte, se somete al amo pero luego, a través del trabajo sobre la materia (por ejemplo, moldeando un objeto), proyecta su interioridad en el mundo, adquiriendo habilidad y entendimiento. Paradójicamente, es el esclavo trabajador quien acaba poseyendo un saber-hacer (una téchne) que le da independencia respecto del amo. Este reconocimiento de la actividad técnica (trabajo objetivado en herramientas y productos) como factor de autoconciencia y liberación preludia ideas desarrolladas después por Marx. Asimismo, en la Filosofía de la Historia, Hegel observa que cada época incorpora sus condiciones materiales –incluyendo las técnicas disponibles– en el espíritu del pueblo: el progreso técnico (como la imprenta, la máquina de vapor) es visto como parte de la astucia de la razón (List der Vernunft) que utiliza las pasiones humanas para lograr la realización de la Libertad. Hegel entendía la historia mundial como el despliegue del Espíritu Absoluto, y dentro de ese proceso la tecnología aparece como manifestación del ingenio humano que contribuye a la realización de fines racionales. Sin embargo, mantuvo cierto optimismo idealista: confiaba en que los avances técnicos serían integrados y superados en la Síntesis racional del Estado ético. Para Hegel, las máquinas y la industria de su época (Revolución Industrial naciente) resolvían problemas y aumentaban la riqueza, aunque también notó consecuencias como la alienación del trabajo mecánico en las fábricas, cuestión que menciona al tratar la “sociedad civil” (Filosofía del Derecho, 1821). En última instancia, Hegel veía la técnica como una expresión del Espíritu objetivo, un producto de la razón humana que debía finalmente subordinarse al desarrollo ético del Estado. No analizó críticamente la autonomía de la tecnología, pero dejó planteada la idea de que las creaciones humanas (como las herramientas) retroalimentan el desarrollo de la libertad humana –una tesis que influirá en filósofos posteriores.


En resumen, la época moderna e ilustrada cambió la valoración de la técnica respecto a la antigüedad: de ser un saber subalterno pasó a considerarse motor del progreso. Descartes y Bacon propusieron dominar la naturaleza a través de la ciencia aplicada, inaugurando el proyecto moderno de una tecnificación del mundo para beneficio humano. Kant y los ilustrados vieron en ese proyecto una promesa de emancipación y perfeccionamiento de la humanidad, siempre que fuese guiado por la razón y la moral universales. Hegel, con su visión historicista, incorporó el trabajo técnico al autodesarrollo del espíritu, sentando bases para entender la técnica como parte de la realización de la libertad, aunque sin prever del todo los conflictos que ello entrañaría. Así se preparó el terreno para que en siglos posteriores surgiera una conciencia filosófica específica sobre la tecnología, la cual afloraría con fuerza en el siglo XIX y sobre todo en el siglo XX, cuando las promesas y peligros de la técnica moderna se hicieron ineludibles.


Perspectivas del siglo XIX y XX: crítica y comprensión de la técnica moderna

Ya en el siglo XIX, filósofos como Karl Marx y pensadores positivistas (p. ej. Auguste Comte, Ernst Kapp) prestaron atención al papel de las máquinas y las herramientas en la sociedad. Marx analizó la tecnología industrial como parte de los medios de producción, señalando que bajo el capitalismo la maquinaria intensifica la explotación y la alienación del trabajador, pero a la vez crea las condiciones materiales para un futuro sin clases (Marx, 1867/1975). Aunque Marx no desarrolló una “filosofía de la tecnología” sistemática, su idea de que la “racionalidad tecnológica” de la gran industria sirve a las relaciones de dominio (pero podría reorientarse en una sociedad comunista) influyó en varios pensadores críticos del siglo XX. De hecho, puede decirse que la verdadera filosofía de la tecnología como disciplina nace en el siglo XX, cuando se vuelve impostergable reflexionar sobre cómo la técnica moderna –industrial, bélica, electrónica– transforma radicalmente la existencia humana. A continuación, examinamos las contribuciones de algunos de los filósofos más influyentes en este campo durante el siglo XX (y principios del XXI): Martin Heidegger, Gilbert Simondon, Herbert Marcuse, Andrew Feenberg, Donna Haraway y Yuk Hui. Cada uno de ellos, desde distintos enfoques, analizó críticamente la esencia de la tecnología moderna, las implicaciones sociales de la técnica y la relación entre humanidad y artefactos.


Martin Heidegger: la esencia de la técnica moderna como «Enframing»

El filósofo alemán Martin Heidegger (1889–1976) es una referencia obligada en filosofía de la tecnología por su profundo (y discutido) ensayo Die Frage nach der Technik (La pregunta por la técnica, 1954). Heidegger no aborda la tecnología desde un punto de vista instrumental o ético inmediato, sino que indaga en su esencia ontológica: quiere saber qué es en esencia la técnica moderna y cómo esta esencia afecta nuestra manera de estar en el mundo. Su conclusión es que la técnica moderna no es meramente un conjunto de herramientas, sino una forma de desocultar la realidad, un modo de revelación que él denomina Gestell (traducido como “Enmarcamiento” o “estructura de emplazamiento”).

En términos simples, Heidegger sostiene que en la tecnología moderna la naturaleza y las cosas se revelan exclusivamente como “recursos” disponibles para usos determinados. Todo se ve a través del prisma de la utilidad y la eficiencia: el mundo deviene un “almacén de energía” o reserva (Bestand en alemán) del cual extraer recursos. Por ejemplo, un río deja de ser visto como un río en su esencia poética o natural, y se ve solo como energía hidráulica a explotar; un bosque es solo madera; las personas mismas pueden verse como recursos humanos. Este “enmarcamiento” tecnológico configura la realidad bajo la forma de medio–fin: la totalidad de los entes aparece despojada de valor intrínseco, lista para ser calculada, controlada y utilizada. La técnica moderna, pues, no es neutral: lleva implícita una manera de pensar instrumentalizadora que condiciona nuestra relación con el Ser.


Heidegger, sin embargo, aclara que la técnica en sí no es algo maligno –de hecho, reconoce que la técnica es una forma de poiesis, de creación o revelación, emparentada con las artes–. El problema es la mentalidad tecnocrática exclusiva, cuando el Gestell se apodera de todo horizonte de sentido. En La pregunta por la técnica, afirma que “la esencia de la técnica no es algo técnico”, sino este marco de comprensión que nos impulsa a desafiar a la naturaleza incesantemente para que rinda cuentas (la imagen heideggeriana es la de la Ge-Stell como un armazón que exige productividad). Esto, según Heidegger, encierra un peligro: corremos el riesgo de que el hombre mismo se reduzca a recurso y de perder de vista otras formas de revelar el ser más allá de la técnica (por ejemplo, el arte o la contemplación).


No obstante, Heidegger también vislumbra una “salvación” en el seno del peligro: así como el Gestell amenaza con cosificarlo todo, también podría, llevado al extremo, desocultar algo fundamental. Enigmáticamente, sugiere que la técnica moderna encierra la posibilidad de una revelación epocal que nos impulse a buscar una nueva relación con el Ser. De ahí su famosa frase: “La esencia de la tecnología es al mismo tiempo el mayor peligro y la mayor posibilidad” para el ser humano. En otras palabras, la toma de conciencia sobre este “Enmarcamiento” podría liberarnos de él, si logramos una actitud de apertura (Gelassenheit) que permita usar la técnica sin quedar atrapados completamente en su visión instrumental.


Heidegger, con su estilo denso y ambiguo, inauguró una crítica filosófica de la tecnología en un nivel profundo: ya no se trata solo de evaluar impactos buenos o malos de tal o cual máquina, sino de entender cómo la cosmovisión tecnológica configura la era moderna. Su influencia ha sido enorme. Algunos lo consideran pesimista respecto a la técnica (pues ve la era moderna dominada por un peligro de olvido del Ser), aunque otros subrayan que él no abogaba por rechazar la técnica, sino por relacionarse de otro modo con ella. En cualquier caso, Heidegger puso sobre la mesa la cuestión de la no-neutralidad de la tecnología y la necesidad de reflexionar sobre su esencia, temas que marcaron la filosofía de la tecnología posterior.


Gilbert Simondon: individuación de los objetos técnicos y cultura técnica

Una visión contrastante con la de Heidegger es la del filósofo francés Gilbert Simondon (1924–1989). Mientras Heidegger veía en la técnica moderna una amenaza ontológica, Simondon desarrolló una filosofía más integradora y positiva de la técnica, tratando de reconciliar al ser humano con sus máquinas. Su obra principal, Du mode d’existence des objets techniques (El modo de existencia de los objetos técnicos, 1958), explora la génesis, evolución y naturaleza propia de los artefactos técnicos, con la convicción de que comprender profundamente la técnica puede superar la alienación entre la cultura humana y el mundo de las máquinas.


Simondon parte constatando que en la cultura occidental existe una fractura entre las humanidades y la ingeniería: tradicionalmente, el discurso filosófico (humanista) miraba la técnica desde fuera, con prejuicios (ya sea exaltándola ingenuamente o temiéndola), mientras que la perspectiva ingenieril a veces ignoraba las implicaciones humanas y filosóficas de la tecnología. Para Simondon, esta división es fuente de alienación: “la técnica o la tecnología no existen; lo que existen son objetos técnicos concretos”, y es un error tanto tecnofílico como tecnofóbico pensar en “la Técnica” de forma abstracta y separada de lo humano. Propone entonces una nueva cultura técnica que reconozca el valor propio de los objetos técnicos y restablezca la continuidad entre la creación técnica y la evolución humana.


Una de las ideas fundamentales de Simondon es que los objetos técnicos tienen una especie de “vida” o trayectoria evolutiva propia, distinta pero relacionada con la humana. Introduce el concepto de individuación técnica: así como los seres vivos se individúan (se desarrollan de forma autónoma), también las máquinas atraviesan procesos de perfeccionamiento llamados de concretización. Un objeto técnico “concreto” es aquel altamente evolucionado, en el que todas sus partes funcionan de manera coherente e integrada (por ejemplo, en las primeras máquinas de vapor, el motor tenía partes añadidas para enfriamiento, lubricación, etc., mientras que en versiones posteriores esas funciones se integran de modo más orgánico). Simondon ve en esta evolución una tendencia positiva de los objetos técnicos a armonizarse consigo mismos y con su entorno.


Además, Simondon rechaza la idea de que la técnica sea meramente aplicación de la ciencia; por el contrario, afirma que la invención técnica tiene su propia creatividad y dignidad epistemológica. Argumenta que mucho antes de que existiera la ciencia moderna, los seres humanos ya habían acumulado conocimiento técnico (saber hacer) valioso. La alienación, dice Simondon, no está en usar máquinas, sino en no comprenderlas. La verdadera alienación es del pensamiento que desprecia la técnica, no del hombre que emplea herramientas. En una frase notable, sostiene que “la alienación no describe la relación entre el hombre y sus invenciones, sino la de éstas y el pensamiento que las considera”. Es decir, las máquinas nos parecen extrañas o amenazantes porque las pensamos mal, con categorías inadecuadas, proyectando en ellas nuestros miedos o fantasías, en lugar de entender su modo de existencia propio.


La propuesta de Simondon es cultivar una conciencia tecnológica lúcida: conocer cómo funcionan las máquinas, cuál es su historia, su lógica interna, para “amar a los objetos técnicos” en el sentido de apreciarlos como parte de nuestra realidad cultural. Esto permitiría superar tanto la tecnofobia irracional como la tecnolatría acrítica. En su visión, una sociedad con alta “cultura técnica” integraría a los técnicos, ingenieros y creadores de tecnología con los filósofos, artistas y ciudadanía en general, para juntos orientar el desarrollo técnico hacia fines verdaderamente humanizantes.


La obra de Simondon, aunque pasó desapercibida por años, ha sido redescubierta en las últimas décadas y es valorada por su originalidad. Influenció a pensadores posteriores en campos como la teoría de la información, la cibernética y la filosofía de los medios. Frente a Heidegger, que veía discontinuidad entre técnica moderna y modos pre-técnicos de revelación, Simondon ve continuidad evolutiva: la técnica prolonga la evolución biológica (con la que forma un continuo desde la hominización) y puede co-evolucionar con la cultura si se la comprende. Su noción de que los conjuntos técnico-humanos forman sistemas integrados anticipa enfoques actuales (como la teoría actor-red de Bruno Latour, que mezcla humanos y no-humanos en redes simétricas). En definitiva, Simondon ofrece una perspectiva conciliadora: la técnica no es nuestro destino trágico, sino una creación nuestra que, comprendida y encauzada, puede enriquecer la individuación humana. Para ello, debemos reconocer la dignidad ontológica de los objetos técnicos y construir una relación de cooperación, no de alienación, con nuestras propias invenciones.


Herbert Marcuse: tecnología, racionalidad y dominación en la sociedad industrial

En el campo de la Teoría Crítica, el filósofo Herbert Marcuse (1898–1979) –miembro de la Escuela de Frankfurt– brindó una de las reflexiones más penetrantes sobre la tecnología en la sociedad contemporánea. Marcuse analizó la técnica no en abstracto, sino en el contexto del capitalismo avanzado de mediados del siglo XX, con sus aparatos industriales, burocráticos y mediáticos. En obras como El hombre unidimensional (1964) y ensayos previos, argumentó que la tecnología moderna se había convertido en un instrumento de control social y de reproducción de la ideología dominante.


Marcuse introduce el concepto de “racionalidad tecnológica” para describir la forma específica de razón que impera en las sociedades industriales avanzadas. Esta racionalidad se caracteriza por la eficiencia, la calculabilidad, la uniformidad y la subordinación de todos los aspectos de la vida a criterios técnico-económicos. Si bien esa racionalidad tecnológica ha generado un enorme aumento en la productividad y un aparente bienestar material (lo que Marcuse llama la “sociedad opulenta”), lo ha hecho al precio de integrar y absorber toda crítica y toda alternativa. En la sociedad industrial avanzada, afirma Marcuse, incluso las clases oprimidas quedan seducidas por el confort y la ideología del consumo, volviéndose “unidimensionales”, incapaces de pensar fuera del sistema existente (de ahí el título One-Dimensional Man). ¿Y qué papel juega la tecnología en esto? Para Marcuse, la tecnología no es neutral ni meramente herramental: más bien constituye un sistema de dominio cristalizado. “No puede sostenerse la noción tradicional de la neutralidad de la tecnología. La tecnología como tal no puede separarse del uso que se hace de ella; la sociedad tecnológica es un sistema de dominación que opera ya en el concepto y la construcción de las técnicas”, escribe Marcuse. En otras palabras, la manera en que se diseñan las máquinas, las fábricas, los medios de comunicación, etc., incorpora las finalidades de control y lucro del sistema, de modo que la propia forma técnica encierra una organización de poder.


Por ejemplo, la línea de montaje taylorista en una fábrica no es solo una herramienta eficiente de producción, sino que organiza el trabajo de forma disciplinaria, reduciendo al obrero a un engranaje repetitivo y reforzando la autoridad del mando empresarial. Igualmente, los electrodomésticos, automóviles y medios de entretenimiento producen comodidades pero también necesidades falsas y conformismo social, eliminando la capacidad de crítica. Marcuse sostenía que la tecnificación integraba tanto a los individuos que incluso el lenguaje y el pensamiento se tornaban unidimensionales (eslóganes publicitarios, discurso político trivializado, etc.), anulando la negatividad que alimenta la oposición social.


Sin embargo, Marcuse –fiel a la matriz marxista– creía en la posibilidad de un uso alternativo de la tecnología bajo una sociedad liberada. En El hombre unidimensional su postura parece pesimista, pero en escritos como El fin de la utopía (1967) y La esfera estética sugiere que otra tecnología es posible, orientada a liberar tiempo libre, a aplanar la dominación y satisfacer las verdaderas necesidades humanas. Imaginaba que en una sociedad no represiva, la técnica podría diseñarse y emplearse para reducir la jornada laboral drásticamente, permitir la autoexpresión creativa y armonizar con la naturaleza, en lugar de devastarla. Para ello, sin embargo, es necesaria una revolución en la estructura social y también un cambio en la racionalidad misma: una nueva “racionalidad tecnológica” cualitativamente diferente, que incorpore valores de juego, belleza, cooperación (Marcuse veía en el arte un modelo para esta reorientación de la técnica).


La importancia de Marcuse en la filosofía de la tecnología radica en su crítica de la ideología de la neutralidad técnica. Demostró cómo la tecnología puede servir para perpetuar relaciones de poder, y cómo bajo el capitalismo tardío surge una “tecnología política” que integra a la población en un sistema de dominación suave pero eficaz. Su análisis inspiró posteriormente a corrientes como los Estudios de Ciencia, Tecnología y Sociedad (CTS) y a filósofos como Andrew Feenberg (discípulo intelectual suyo). De hecho, Feenberg sistematizó muchas ideas de Marcuse en una teoría crítica de la tecnología para el siglo XXI, como veremos a continuación.


En suma, Marcuse aportó una perspectiva crítico-normativa: la tecnología no debe ser aceptada pasivamente como destino inevitable; es preciso preguntarse ¿tecnología para qué y para quién? Si el aparato técnico sirve a la opresión o al condicionamiento del pensamiento, entonces criticar la tecnología se vuelve parte de la crítica social. Pero Marcuse no abogó por el ludismo (rechazo total de la técnica), sino por imaginar y luchar por una transformación de la técnica misma en función de nuevos valores liberadores. Esta tensión entre la tecnología como instrumento de dominación y como potencial de liberación es central en el debate hasta nuestros días.


Andrew Feenberg: hacia una democratización de la tecnología

Continuando la línea de la Teoría Crítica, el filósofo canadiense Andrew Feenberg (1943–) ha desarrollado una filosofía de la tecnología y la democracia, actualizando las ideas de Marcuse para las últimas décadas. Feenberg parte de reconocer que la visión clásica de la tecnología como neutral (un medio eficiente para fines cualesquiera) es insuficiente; también critica la visión “esencialista” de autores como Heidegger que parecen abandonar toda intervención práctica. En su lugar, Feenberg propone una Teoría Crítica de la Tecnología que busca “narrow the gap” –acercar la brecha– entre las abstracciones filosóficas sobre la esencia de la técnica y los enfoques sociológicos que a veces son acríticos.


Feenberg sostiene que la tecnología se configura dentro de un contexto social e histórico determinado: “tecnología y política determinan lo que somos y seremos”, afirma, de modo que debemos hacernos cargo de ambas. Retomando la idea de Marcuse de que la tecnología incorpora valores e intereses, Feenberg analiza cómo decisiones aparentemente técnicas en realidad reflejan elecciones sociales. Por ejemplo, el diseño de Internet, el urbanismo de una ciudad o la automatización de una fábrica no son neutros: podrían haberse hecho de otra manera para servir a otros propósitos o a distintos grupos sociales. Así, Feenberg introduce conceptos como el de código técnico (technical code): la noción de que en el diseño de un artefacto o sistema se inscribe un programa de valores, una visión del uso social que se da por supuesta. Un ejemplo: la tecnología del automóvil privado, con autopistas y estacionamientos, inscribe el valor de la movilidad individual por encima del comunitario y moldea la vida urbana en consecuencia; un diseño alternativo centrado en transporte público, bicicletas, etc., respondería a otro código técnico con valores distintos (p. ej., sostenibilidad, equidad).


La propuesta central de Feenberg es la democratización de la tecnología. Esto significa abrir el proceso de diseño y decisión tecnológica a la participación de diversos actores –usuarios, trabajadores, comunidades afectadas– y no solo a ingenieros, empresarios o burócratas. Feenberg cree que la orientación de la tecnología puede redirigirse hacia fines más democráticos y emancipadores mediante la intervención deliberativa. Él llama a esto “racionalización democrática” de la tecnología: en lugar de una racionalización meramente técnica-económica impuesta desde arriba, permitir debates públicos sobre qué tipo de tecnología queremos y para qué valores. Un caso práctico que analiza es la participación de personas con discapacidad en el desarrollo de tecnologías de asistencia: sus aportes pueden cambiar el diseño para que sea verdaderamente inclusivo, cosa que un mercado puramente lucrativo no haría espontáneamente. Otro ejemplo es la lucha de comunidades contra tecnologías peligrosas (p. ej. reactores nucleares o pesticidas): Feenberg ve en esas resistencias la semilla de una “tecnología alternativa” orientada por preocupaciones ambientales, sanitarias o éticas que las élites tecnocráticas pasaban por alto.


Conceptualmente, Feenberg distingue dos niveles de la tecnología: la instrumentalización primaria, que refiere a cómo una tecnología funciona (sus aspectos materiales, su eficiencia interna), y la instrumentalización secundaria, que es cómo se implanta en la sociedad (normas de uso, implicaciones culturales, distribución de poder). La teoría crítica debe incidir sobre esta instrumentalización secundaria, revelando y alterando las orientaciones valorativas. Por ejemplo, un mismo avance –digamos la inteligencia artificial– podría instrumentalizarse secundariamente de modos muy distintos: bajo una lógica corporativa de vigilancia, o bajo control ciudadano para el bien común. Feenberg aboga por lo segundo: reclamar la tecnología para la democracia. Esto lo expresa diciendo que es posible un “nexo, utópico pero posible, entre la democracia y la tecnología” orientado a sociedades más justas.


En síntesis, Feenberg actualiza la crítica marcuseana evitando caer en la desesperanza determinista. Rechaza tanto el determinismo tecnológico (la idea de que la tecnología avanza con leyes propias inevitables) como el determinismo social ingenuo (creer que la tecnología es totalmente flexible y obediente a cualquier fin). En su lugar, propone una interacción dialéctica: la tecnología tiene una inercia y lógica técnica, pero está abierta a intervenciones sociales. La ciudadanía y los grupos subordinados pueden (y deben) intervenir en el curso tecnológico para orientar sus desarrollos hacia la democratización. Por eso, su proyecto se alinea con movimientos ambientales, de consumidores, pacientes, minorías, etc., que buscan apropiarse de la ciencia y la tecnología para sus propios fines. Esta visión es esperanzadora: sugiere que no estamos condenados a la “mega-máquina” inhumana, sino que a través de la deliberación democrática y la lucha política podemos construir otra tecnología más acorde con valores humanistas (por ejemplo, tecnologías ecológicamente sostenibles, descentralizadas, orientadas a satisfacer necesidades reales más que a crear consumo artificial).


La obra de Feenberg –en libros como Critical Theory of Technology (1991), Questioning Technology (1999) o Transforming Technology (2002)– es hoy una referencia para quienes estudian ética y política de la tecnología. Sus ideas sintonizan con enfoques participativos de gobernanza de la ciencia (p. ej., Technology Assessment participativo) y con el diseño centrado en el usuario. En definitiva, Feenberg nos recuerda que la pregunta por la tecnología es inseparable de la pregunta por la sociedad que la produce: ¿quién decide el rumbo de la innovación? ¿Bajo qué valores y con qué fines? La meta sería lograr un control democrático sobre el futuro tecnológico, antes de que éste nos controle a nosotros.


Donna Haraway: el cyborg y la redefinición tecnofeminista del humano

Una voz original y desafiante en la filosofía contemporánea de la tecnología es la de Donna J. Haraway (1944–), teórica feminista y de estudios de ciencia. Haraway es conocida por su provocador “Manifiesto para cyborgs: ciencia, tecnología y feminismo socialista a finales del siglo XX” (publicado en 1985, traducido al español en 1991). En este ensayo, Haraway introduce la figura metafórica del cyborg (organismo cibernético, mitad humano mitad máquina) como símbolo para replantear las dualidades tradicionales y las identidades fijas. Su premisa es que la integración de humanos y tecnología ha avanzado tanto que las fronteras antes nítidas –entre humano y animal, entre humano y máquina, entre lo natural y lo artificial, incluso entre hombre y mujer– se han vuelto borrosas. Esta “ruptura de fronteras” abre la posibilidad de un nuevo imaginario en el que podamos construir identidades híbridas y coaliciones políticas por afinidad en lugar de por esencia.

Haraway argumenta que aferrarse a categorías dualistas rígidas (hombre/mujer, humano/animal, naturaleza/cultura) ha sustentado históricamente relaciones de dominación –en particular el patriarcado, el colonialismo y el antropocentrismo–. El cyborg, en cambio, es una criatura transgresora: “rechaza las nociones de esencialismo, proponiendo en cambio un mundo quimérico y monstruoso de fusiones entre animal y máquina”. Al ser el cyborg un ente mestizo (parte orgánico, parte tecnológico), evidencia que lo que llamamos “naturaleza” ya está entretejido con la “cultura” y la “técnica”. No existe ya un pasado puro al cual retornar (la metáfora bíblica del Jardín del Edén no es aplicable a un cyborg que no fue hecho de barro ni puede soñar con volver al polvo, dice Haraway). Por tanto, debemos abandonar nostalgias y reconocer nuestra condición tecnomediada, usando esa misma condición para subvertir las jerarquías existentes.


El mensaje emancipatorio del manifiesto de Haraway es que, si bien la alta tecnología ha estado ligada al complejo militar-industrial y al capitalismo avanzado (Haraway no lo niega, al contrario, analiza cómo el “sistema informático de la dominación” ha emergido en la era Reagan, etc.), también ofrece herramientas inesperadas para la resistencia. Al situarnos como cyborgs, podemos “escribir el lenguaje” con nuevos significados, hackear los códigos del poder y buscar formas de solidaridad inéditas. Haraway invita a un feminismo y un socialismo reinventados para la era tecnológica: uno que acepte irónicamente que ya somos cyborgs, y aproveche esa posición para “sugerir salidas al laberinto de dualismos en que hemos explicado nuestros cuerpos”, rompiendo las ilusiones de identidad unitaria y abriendo paso a identidades parciales, contradictorias y móviles. Por ejemplo, la figura del cyborg permite al feminismo escapar de la trampa de definir “la mujer” en oposición al hombre (lo cual a veces llevaba a esencialismos): en lugar de eso, se puede enfocar en alianzas transversales (mujeres, minorías, trabajadoras, inteligencias artificiales incluso, ¿por qué no? – la idea es deliberadamente provocativa).


Con respecto a la relación humano-técnica, Haraway es notablemente optimista en comparación con Heidegger o Ellul. Ella no ve la fusión con la máquina como degradación, sino como posibilidad de reimaginarnos. En los 80s, ya señalaba cómo las tecnologías de información, la biotecnología, etc., reconfiguraban el cuerpo y la identidad (piénsese en prótesis, fertilización in vitro, redes digitales incipientes). Frente al temor de un “síndrome de Frankenstein” –la idea de que nuestras creaciones tecnológicas se volverán contra nosotros–, Haraway sugiere una narrativa alternativa: la del cyborg emancipatorio, ilegítimo hijo del patriarcado capitalista que sin embargo puede escapar a su control. Esto no es una utopía naive: Haraway es consciente de que los cyborgs (en sentido literal y figurado) nacen de la militarización y la corporativización. Pero precisamente por no tener una “esencia” pura, pueden reprogramarse.


El Manifiesto Cyborg de Haraway se considera un texto fundacional en el feminismo tecnocientífico y el poshumanismo crítico. Ha inspirado debates sobre el género en la era digital, la agencia de los cuerpos feminizados en la tecnocultura, y en general ha mostrado que la tecnología también es un terreno político-cultural disputable, no solo una cuestión de eficiencia. Haraway ejemplifica cómo es posible teorizar la tecnología desde una perspectiva situada: ella escribe como mujer, científica (bióloga), socialista, e intenta articular esas posiciones en un mundo dominado por prótesis de poder. Su legado se ve en corrientes como el cyberfeminismo, que en los 90 exploró Internet como espacio potencial de liberación de las identidades de género (aunque con ambivalencias); también anticipó preocupaciones de la biopolítica y la biotecnología actuales, al tratar el cuerpo como “biomodificado”.


En resumen, Donna Haraway aporta al discurso sobre tecnología la idea de la hibridación liberadora: abrazar la mezcla humano-máquina puede permitirnos superar dualismos opresivos y construir nuevas formas de ser y de comunidad. Su metáfora del cyborg es una potente herramienta conceptual para pensar la subjetividad en la era tecnológica: en lugar de vernos como víctimas de la máquina o meros usuarios pasivos, vernos como máquinas parciales nosotros mismos puede ser empoderador e imaginativo. Con Haraway, la filosofía de la tecnología incorpora la perspectiva de género y de la identidad, recordándonos que la técnica no impacta en un sujeto abstracto, sino en cuerpos e identidades marcados por relaciones de poder –pero esas relaciones pueden reconfigurarse creativamente.


Yuk Hui: cosmotécnica y multiplicidad tecnológica más allá de Occidente

Finalmente, llegando a las corrientes más contemporáneas, destaca el pensamiento de Yuk Hui (1985–), filósofo originario de Hong Kong, quien propone una reflexión poseurocéntrica sobre la tecnología. Hui parte de la tradición de filosofía de la tecnología occidental (es un gran conocedor de Heidegger, Simondon, Stiegler, etc.), pero la entrecruza con perspectivas de la filosofía china y de otras culturas, para cuestionar la idea de una única historia universal de la técnica. Su noción clave es la de cosmotécnica: la idea de que toda técnica está inserta en una cosmología o visión del mundo, y que diferentes culturas han desarrollado múltiples cosmotécnicas a lo largo de la historia. En oposición a la tesis (común en la modernidad) de que la tecnología es un universal antropológico neutro que toda sociedad tarde o temprano recorre en el mismo camino (de la piedra pulida a la bomba atómica), Yuk Hui afirma: “No existe una única Tecnología, sino múltiples cosmotécnicas”.

¿Qué significa esto? Por ejemplo, la manera en que las civilizaciones mesoamericanas concebían y empleaban la técnica –en sus calendarios, arquitectura, agricultura– estaba ligada a sus mitos y relaciones con la naturaleza, muy distinta de la cosmovisión greco-occidental que derivó en la ciencia moderna. Incluso hoy, podríamos pensar que la alta tecnología digital no se adopta de igual forma en, digamos, China que en Silicon Valley o en comunidades indígenas: subyacen valores y concepciones distintas (colectivistas vs. individualistas, armónicas con la naturaleza vs. extractivistas, etc.). Hui retoma la pregunta heideggeriana por la esencia de la técnica pero le reprocha su provincialismo: “¿Dónde quedan en el análisis de Heidegger las tecnologías milenarias de India y China, o de las civilizaciones maya e inca?”, se pregunta. Por tanto, propone pluralizar el debate incorporando esas otras experiencias históricas.


En su libro The Question Concerning Technology in China: An Essay in Cosmotechnics (2016), Yuk Hui estudia cómo en la filosofía china clásica (por ejemplo, en el taoísmo) existió una idea de técnica (dao) diferente de la occidental, más integrada en la armonía cósmica. Según él, la modernidad impuso globalmente una monotecnología occidental basada en la mecanización y la explotación, en gran parte a través del colonialismo y luego la globalización económica. Esa monotecnología –que hoy se manifiesta en la industria extractiva, la informática universal, etc.– ha llevado a crisis como la ambiental (cambio climático, destrucción de ecosistemas) al imponer un único modo de relación técnico-naturaleza en todo el planeta. Para Hui, es urgente revertir esta tendencia explorando y recuperando la diversidad de cosmotécnicas posibles: “desarrollar y preservar la tecnodiversidad”, lo llama. Esto implicaría repensar la tecnología desde bases ontológicas y culturales diferentes a las de la Ilustración europea.


Un punto interesante es que Yuk Hui no aboga por rechazar la tecnología moderna (no es un primitivista), sino por reapropiársela de manera diferente. Por ejemplo, reconoce que conceptos como inteligencia artificial o redes sociales son centrales hoy, pero plantea que deben reinterpretarse a la luz de otras tradiciones de pensamiento para darles un encuadre distinto. De hecho, afirma explícitamente: “redescubrir la multiplicidad de cosmotécnicas no implica rechazar la inteligencia artificial o el aprendizaje automático, sino reapropiarse de la tecnología moderna y darle nuevos encuadres a la estructura de emplazamiento (Gestell) que está en el núcleo”. Aquí vemos cómo Hui dialoga con Heidegger: reconoce el Gestell (el enmarcamiento instrumental) en la tecnología moderna global, pero sugiere que otros encuadres son posibles si se incorporan epistemologías diferentes. Un ejemplo práctico podría ser el desarrollo de IA siguiendo principios éticos derivados de filosofías orientales de equilibrio, en lugar de la lógica de vigilancia capitalista; o el diseño de redes digitales federadas que reflejen valores comunitarios locales en vez de la estandarización de Facebook/Google.


Hui también analiza el presente geopolítico: sostiene que estamos asistiendo al “ocaso de Occidente” y a una reconfiguración donde otras potencias (China, etc.) apropiaron la tecnología occidental pero podrían reorientarla. Señala acontecimientos simbólicos como el ataque del 11 de septiembre de 2001 (tecnología occidental usada contra Occidente) como parte del “fracaso de la herencia ilustrada” y el surgimiento de narrativas neorreaccionarias que intentan responder a la crisis global (con peligro de caer en autoritarismos). En contraposición, Yuk Hui propone otorgar al pensamiento una tarea opuesta a la ilustrada: “fragmentar el mundo según la diferencia, en vez de universalizar por medio de lo igual”, es decir, cultivar la diferencia cultural en la era tecnológica en vez de borrarla. Esto es lo que él llama filosofía poseuropea, una filosofía del futuro que supere la linealidad “premoderno–moderno–posmoderno” de la narrativa eurocéntrica.


En suma, Yuk Hui aporta una perspectiva pluralista y intercultural a la filosofía de la tecnología. Complementa las críticas clásicas (Heidegger, etc.) mostrando que sus diagnósticos se quedan cortos al no considerar otras visiones del ser y de la técnica. También actualiza la discusión al contexto actual de globalización tecnológica, competición digital entre potencias y crisis ecológica planetaria. Su noción de cosmotécnica invita a pensar que cada cultura puede (y debe) definir su relación con la tecnología de acuerdo con sus propios valores, en lugar de seguir inevitablemente el patrón occidental moderno. Esto en la práctica podría significar, por ejemplo, revalorizar conocimientos tradicionales en combinación con ciencia moderna para soluciones locales, diseñar tecnologías que respeten la diversidad cultural y la naturaleza. Coincide con algunas corrientes decoloniales y de tecnología apropiada que claman por “tecnodiversidad” tanto como biodiversidad.


Para la filosofía, Yuk Hui supone una llamada de atención: la necesidad de “provincializar” a Europa (parafraseando a Chakrabarty) también en materia de historia de la técnica. Nos recuerda que Prometeo no es el único mito de la técnica; también está, por ejemplo, el mito chino de Yu el Grande controlando las inundaciones sin represas, o las prácticas agrícolas sostenibles de pueblos originarios, etc. Reconocer la multiplicidad de cosmotécnicas abre un horizonte más esperanzador, donde la globalización tecnológica no tenga que ser sinónimo de homogenización y desastre, sino que pueda bifurcarse hacia futuros alternativos en los que tecnología y moral (o cosmos) vuelvan a unirse de modos diversos.


Este es, en el fondo, el mensaje de Hui: reimaginar el porvenir tecnológico explorando otros imaginarios, porque el futuro no está escrito por completo en el código binario de Occidente.

Tras este recorrido por diversos autores –desde los clásicos hasta las visiones críticas y alternativas contemporáneas–, contamos con un panorama rico y matizado de cómo la filosofía ha pensado la técnica. A continuación, profundizaremos en algunos temas contemporáneos clave que emergen de este contexto histórico-filosófico: la inteligencia artificial, el transhumanismo, la vigilancia digital, las redes sociales, la automatización y la ética de la tecnología. En cada caso veremos cómo las ideas filosóficas estudiadas aportan luces (y también nuevas preguntas) sobre estos fenómenos actuales.


Temas contemporáneos: IA, transhumanismo, vigilancia, redes sociales, automatización y ética tecnológica

La aceleración tecnológica de las últimas décadas –con la revolución informática, Internet, la biotecnología, la inteligencia artificial– ha generado nuevos desafíos éticos y filosóficos. Muchos de estos temas contemporáneos pueden analizarse a la luz del marco histórico previamente expuesto. A continuación se ofrece una discusión de los más relevantes:


1. Inteligencia Artificial (IA) y algoritmos autónomos

La inteligencia artificial ha pasado de ser especulación de ciencia ficción a una realidad ubicua que va desde asistentes virtuales en nuestros teléfonos hasta sistemas complejos de machine learning que toman decisiones en finanzas, medicina o logística. Filósofos y éticos se preguntan: ¿pueden las IA ser consideradas agentes morales o incluso personas? ¿Qué límites debemos imponer a su autonomía? ¿Cómo asegurar que reflejen valores humanos y no perpetúen sesgos injustos?


Desde la perspectiva de Heidegger, podríamos decir que la IA es una culminación del Gestell: un intento de reproducir computacionalmente la mente, convirtiendo incluso al pensamiento en un recurso calculable. Esto implica el peligro de reducir lo humano a patrones cuantificables. Sin embargo, también cabría pensar, con Simondon, que la IA es un objeto técnico evolucionado cuyo modo de existencia debemos comprender para integrarlo culturalmente en lugar de demonizarlo. ¿Podemos amar a los algoritmos? – la pregunta suena extraña, pero apunta a si es posible desarrollar una relación no alienada con estas creaciones, educándolas (literalmente, mediante el training con datos éticos) para que sean compatibles con nuestras vidas.


Un asunto urgente es el de la ética de la IA. Organismos internacionales como la UNESCO han elaborado directrices: en 2021, por ejemplo, la UNESCO aprobó la primera Recomendación sobre la ética de la inteligencia artificial, subrayando la necesidad de que la IA respete la dignidad humana, la privacidad, la diversidad cultural y el medio ambiente. Se enfatiza que las IA deben ser transparentes, explicables y gobernables por humanos (principio de “human-in-the-loop”). Esto concuerda con la postura de Feenberg, quien abogaría por la democratización del diseño de IA: involucrar a la sociedad civil en las decisiones sobre cómo y dónde aplicar algoritmos, para prevenir que unas pocas corporaciones o gobiernos los usen de manera opaca y controladora.


También surgen dilemas clásicos reeditados: por ejemplo, el conocido “problema del tranvía” se traslada a los coches autónomos (¿cómo deberían decidir ante un accidente inevitable, a quién proteger?). Filósofos como Luciano Floridi han trabajado en la idea de una infosfera en la cual humanos y agentes de IA coexisten, proponiendo una “ética de las entidades informacionales” (Floridi, 2013).


Otra cuestión es la posible conciencia o sensibilidad de las IA futuras (la llamada IA fuerte). Si en algún momento creásemos máquinas conscientes, habría que replantear la frontera moral: ¿tendrían derechos? Esto retrotrae a debates sobre la definición de persona (Locke, etc.) y a la famosa pregunta de Turing (“¿Pueden pensar las máquinas?”). Por ahora, la IA actual (basada en aprendizaje estadístico) no muestra indicios de consciencia fenomenológica, pero sí puede simular conversaciones y decisiones complejas.


En clave Haraway, podríamos ver a las IA como cyborgs inmateriales, extensiones de nuestra mente que rompen la frontera hombre/máquina en el ámbito cognitivo. Haraway quizás instaría a evitar proyectar en la IA nuestros prejuicios (género, raza, etc.) y más bien usar la “plasticidad de identidad” del cyborg para concebir formas de inteligencia híbrida (humano+IA) al servicio de causas sociales. De hecho, ya se habla de “IA feminista” o “AI4Good” como movimientos para orientar la inteligencia artificial hacia la equidad de género, el desarrollo sostenible u otros fines más allá del lucro corporativo.


En síntesis, la IA nos confronta con la pregunta: ¿qué es lo específicamente humano? Si las máquinas aprenden a reconocer rostros, diagnosticar enfermedades o componer música mejor que nosotros, ¿qué lugar nos queda? Filósofos como Bernard Stiegler (influido por Simondon) han argumentado que la automatización exige reinventar la educación y la cultura, para no dejar que las facultades humanas se atrofien. Stiegler habla de la necesidad de una farmacología de la técnica: toda tecnología es un veneno y un remedio a la vez; en el caso de la IA, el remedio sería usarla para ampliar nuestras capacidades sin cederle completamente nuestra noesis (pensamiento). Aquí hay ecos de Marcuse: liberar tiempo gracias a la automatización podría ser emancipador, pero si seguimos en la lógica consumista, ese tiempo libre se emplea en trivialidades que no desarrollan al individuo.


En cualquier caso, es claro que la IA desafía a la ética y a la filosofía a extender sus marcos. La teoría de la mente se entrelaza con la teoría de sistemas; la responsabilidad moral ya no recae solo en humanos sino en tecno-agentes; la justicia debe considerar algoritmos (por ejemplo, evitar que sistemas de puntaje crediticio o de predicción delictiva discriminen injustamente). Como dijo un informe del Parlamento Europeo (2017), podríamos llegar a considerar un estatus jurídico especial de “agente electrónico” para ciertas IA avanzadas, lo que recuerda a la persona artificial de Hobbes pero aplicada a software. La comunidad filosófica está apenas comenzando a lidiar con estos problemas, integrando conocimientos de informática, derecho, psicología y, por supuesto, filosofía de la tecnología.


2. Transhumanismo y modificación de la condición humana

El transhumanismo es un movimiento intelectual y cultural contemporáneo que promueve el uso de la tecnología para mejorar radicalmente la condición humana, superando nuestros límites biológicos actuales. Los transhumanistas abogan por cosas como la extensión drástica de la vida (incluso abolir el envejecimiento), aumentar la inteligencia mediante implantes o interfaces cerebro-máquina, mejorar el cuerpo con prótesis avanzadas, modificaciones genéticas para eliminar enfermedades hereditarias, e incluso la posibilidad a futuro de “subir” la mente a soportes digitales (mind uploading). Todo ello con la meta de dar lugar eventualmente a un “posthumano”, un ser con capacidades muy superiores a las humanas actuales.


Filósoficamente, el transhumanismo se presenta como heredero del humanismo ilustrado llevado a su máxima expresión: donde la Ilustración decía “atrévete a saber”, el transhumanismo dice “atrévete a mejorar”. Autores como Nick Bostrom (2005) han trazado la genealogía del deseo humano de trascenderse, desde la epopeya de Gilgamesh (buscando la inmortalidad) hasta los modernos proyectos de ingeniería biotecnológica. El argumento básico a favor es: si tenemos medios para aliviar el sufrimiento, aumentar la felicidad o la longevidad, ¿no es moralmente deseable usarlos? Por ejemplo, si una terapia génica puede prevenir una enfermedad devastadora, parecería irresponsable no aplicarla. Los transhumanistas simplemente extienden esto a atributos más allá de la salud: ¿y si pudiéramos elevar el coeficiente intelectual promedio 50 puntos? ¿o añadir un nuevo sentido perceptivo (como visión infrarroja)? ¿o vivir 200 años con cuerpo joven? En su visión, la tecnología bien dirigida puede producir un salto evolutivo auspicioso.


Sin embargo, hay críticas y dilemas profundos. Filósofos poshumanistas (no confundir: poshumanismo crítico es distinto del “posthumano” transhumanista) argumentan que el proyecto transhumanista todavía arrastra un humanismo ilustrado ingenuo, con sus sesgos individualistas, occidentales y meritocráticos. Por ejemplo, Fukuyama (2002) calificó al transhumanismo como “la idea más peligrosa” precisamente porque cree que subestiman los riesgos: la desigualdad podría aumentar si solo ricos acceden a mejoras; podría surgir una “brecha evolutiva” entre humanos mejorados y no mejorados; podríamos perder cualidades esenciales de la vida humana (¿qué sentido de identidad habrá en un ser altamente modificado?).


Una preocupación central es la ética de la mejora (enhancement): ¿hasta dónde es tratamiento médico (terapia) y cuándo es “mejora” opcional? ¿Debemos dibujar una línea? Muchos bioeticistas distinguen entre curar enfermedades vs. aumentar capacidades por encima de lo “normal”. Pero los transhumanistas cuestionan la propia distinción: si podemos hacer a todos más inteligentes, ¿por qué no? Del otro lado, los críticos advierten que “más inteligente” no garantiza “más sabio o más bueno”. Un Hitler con un conciente intelectual de 300 sería simplemente un genocida aún más eficaz, por decir algo. Esta es la esencia del argumento de la dialéctica de la Ilustración (Horkheimer y Adorno): más razón instrumental sin moral puede llevar a horrores.


Algunos filósofos, como Jürgen Habermas, se oponen específicamente a la manipulación genética germinal (en embriones) porque afecta la autonomía: el individuo no tendría posibilidad de consentir las “mejoras” decididas por sus padres, y se teme que se abra la puerta a una especie de eugenesia liberal (los padres escogen hijos “a la carta”). Esto podría erosionar la igualdad (si unos nacen con ventajas incorporadas) e incluso la espontaneidad de la vida humana.


Desde la perspectiva de autores que hemos visto: Heidegger seguramente vería el transhumanismo como la culminación del Enframing, tratando al cuerpo humano como un standing-reserve modificable a voluntad, perdiendo todo sentido de “don del Ser”. Marcuse quizá tendría una visión ambivalente: por un lado, le atraería la idea de liberar al hombre de las ataduras biológicas (él mismo fantaseaba con que la técnica podría liberar de la necesidad laboral, etc.), pero desconfiaría de que bajo el capitalismo eso solo cree nuevos condicionamientos (por ejemplo, una industria masiva de productos para “mejorarse” que esclavice psicológicamente a la gente en un afán competitivo de ser más perfectos, perpetuando la alienación). Haraway, interesante, prefiguró algo del transhumanismo con su cyborg, pero su intención era más metafórica y liberadora, no simplemente hedonista. Ella abogaría porque esas transformaciones se hagan con consciencia política: ¿quién controla las tecnologías corporales? ¿Mejoras para quién? Un cyborg-feminista querría asegurarse de que las tecnologías de mejora no reifiquen estereotipos (p.ej., “mejorar” apariencia femenina bajo cánones sexistas) sino que empoderen genuinamente.


Hoy en día existe un debate bioético y filosófico intenso sobre el transhumanismo. Organizaciones transhumanistas (Humanity+, Instituto para la Ética y Tecnologías Emergentes) promueven la agenda de I+D en rejuvenecimiento, interfaces cerebrales, etc. Del otro lado, pensadores religiosos y humanistas tradicionales alertan de una “pérdida de la esencia humana” o de consecuencias imprevistas (el clásico argumento de la pendiente resbaladiza: empezar por corregir genes de enfermedades puede terminar en eliminar rasgos vistos como indeseables por moda o sesgo).


Un punto intermedio es lo que algunos llaman “transhumanismo democrático” o tecno-progresismo: aceptar la posibilidad de mejoras tecnológicas pero buscando regulaciones fuertes para asegurar acceso equitativo, deliberación pública, y mantener ciertos valores (por ejemplo, prohibir modificaciones que eliminen la empatía o que creen seres predispuestos a la agresión). Autores como Michael Sandel han escrito “contra la perfección”, arguyendo que abrazar demasiado el paradigma del dominio técnico sobre la vida puede erosionar virtudes como la humildad, la solidaridad (si todo es mérito de mi mejora, ¿qué pasa con la aceptación de la fragilidad ajena?), etc.


En conclusión, el transhumanismo nos hace replantear la pregunta clásica “¿qué es el ser humano?” en un sentido práctico: si podemos cambiar al ser humano, ¿qué queremos que sea? ¿Quién decide? ¿Es la mortalidad una condición esencial a abrazar, o un problema técnico a resolver? ¿La vulnerabilidad y dependencia humanas son rasgos a superar o bases de nuestra ética de compasión? La filosofía de la tecnología aquí se entrelaza con la antropología filosófica, la ética médica y incluso la metafísica (¿se perdería “el alma” en un posthumano? – aunque para pensadores materialistas, esa pregunta cambia por “¿qué pasa con la identidad personal?”).


Como referencia, Moreno Ortiz (2020) resume que el debate sobre transhumanismo se centra en “las consecuencias de la agencia tecnológica en los procesos de mejoramiento de las capacidades y condiciones de la vida humana”. Es decir, qué implica moral y socialmente tomar las riendas de nuestra evolución. Los próximos años, con avances en CRISPR (edición genética), nanotecnología médica, neuroprótesis, etc., harán estas cuestiones cada vez menos especulativas y más urgentes.


3. Vigilancia digital, privacidad y capitalismo de datos

Otro tema candente es la vigilancia digital en la era de Internet, los teléfonos inteligentes y las redes sociales. Vivimos en lo que la filósofa Shoshana Zuboff denomina “capitalismo de vigilancia”, un modelo económico donde las empresas ofrecen servicios “gratuitos” a cambio de captar masivamente nuestros datos personales, comportamientos y preferencias, para luego monetizarlos –ya sea mediante publicidad dirigida, puntuación de crédito, influencia política, etc. Zuboff afirma que el capitalismo de vigilancia se ha vuelto la forma dominante de capitalismo, con gigantes tecnológicos como Google o Facebook a la vanguardia de esta dinámica. Esto plantea serios problemas éticos: se erosiona la privacidad individual; se concentra poder en pocas corporaciones que saben “todo” de nosotros; se pueden manipular comportamientos a gran escala (como demostró el escándalo de Cambridge Analytica en 2016, donde datos de Facebook se usaron para influir en elecciones).


Desde la filosofía, hay varios ángulos para examinar esto. Un enfoque es a través de Michel Foucault y su concepto del Panóptico: las nuevas tecnologías crean una sociedad panóptica donde siempre podemos estar siendo observados (por cámaras, por rastros en línea, GPS), lo que induce autocensura y conformismo. El poder ya no es tan coercitivo como en orwelliano “Gran Hermano”, sino más sutil: los datos se usan para predecir y orientar nuestras decisiones de consumo y hasta políticas, moldeando nuestros deseos (esto entronca también con la crítica de Marcuse sobre las “falsas necesidades” creadas por la sociedad tecnológica).


Otro enfoque es el de los derechos humanos: la privacidad es un derecho reconocido (Declaración Universal art. 12), pero en la práctica millones de personas entregan voluntariamente (o sin entender) sus datos a cambio de conveniencia o interacción social. ¿Debe el Estado intervenir para protegernos, regulando a las empresas de datos? La Unión Europea, por ejemplo, promulgó el GDPR (Reglamento General de Protección de Datos) en 2018 para dar más control a los usuarios sobre su información. Aquí vemos un intento de ética de la tecnología mediante ley, reconociendo que las dinámicas técnicas (Big Data, algoritmos de vigilancia) deben someterse a valores democráticos.


La filosofía de la tecnología crítica, como la de Feenberg, analizaría cómo la infraestructura de Internet fue deliberadamente diseñada sin muchas salvaguardas de privacidad porque el modelo de negocio dominante así lo quería. Feenberg abogaría por un rediseño participativo de las tecnologías digitales para empoderar al usuario y la comunidad. Por ejemplo, apoyar desarrollos de software libre y plataformas descentralizadas (tipo Mastodon en redes sociales) que no se basen en recolección de datos. Esto es un caso de democratización de la tecnología aplicada: que los usuarios se organicen para crear o exigir alternativas más respetuosas.


En términos de Heidegger, podríamos decir que la vigilancia digital reduce al ser humano a dato, un recurso informacional. Es la consumación del Gestell en el ámbito informacional: todo lo que hacemos (clicks, ubicación, pulsaciones) es enmarcado como información aprovechable. Heidegger alertaría sobre la pérdida de toda esfera de desocultamiento libre no instrumental. La esencia de lo humano como ser que olvida y guarda secretos se niega cuando se registra cada paso.


Éticamente, se plantea la tensión entre seguridad vs. libertad. Los Estados también hacen vigilancia (programas tipo PRISM de la NSA revelados por Snowden). Justifican que para proteger contra el terrorismo y el crimen, necesitan espiar comunicaciones. La pregunta clásica: ¿hasta qué punto se puede sacrificar privacidad por seguridad? Juristas y filósofos políticos debaten sobre ello. Unos dicen: sin privacidad no hay verdadera libertad de expresión ni pensamiento (pues me autocensuro si sé que me leen), por tanto, la vigilancia masiva socava la democracia a largo plazo más que protegerla.


Además, existe la cuestión de la identidad digital: todos tenemos “dobles” en bases de datos, perfiles construidos por algoritmos. A veces esos perfiles deciden cosas (p. ej., un sistema de puntaje crediticio puede negarnos un préstamo sin que sepamos exactamente por qué). Esto lleva a problemas de justicia: ¿cómo corregir errores algorítmicos? ¿cómo garantizar debido proceso cuando las decisiones las toma una máquina opaca?


En respuesta a la era de vigilancia han surgido filosofías y movimientos de tecnoética: por ejemplo, la IEEE promulgó pautas éticas para sistemas autónomos, enfatizando transparencia, rendición de cuentas, control humano. También se habla de “diseño ético” en aplicaciones: que incluyan privacidad por defecto, que eviten técnicas adictivas (como el scroll infinito que nos hace pasar horas pegados a la pantalla). Algunos ex-empleados de Silicon Valley han fundado el Center for Humane Technology, criticando cómo las aplicaciones se diseñan para capturar la atención (lo que llaman “economía de la atención”, otro aspecto del capitalismo de vigilancia). Esto recuerda la crítica de Marcuse: la tecnología de comunicación se usa para una integración psicológica del individuo en el sistema consumista (hoy diríamos: la dopamina de likes nos vuelve dóciles consumidores de publicidad y contenidos).


Finalmente, está la vertiente más distópica: China, por ejemplo, implementa un sistema de crédito social que combina datos de muchas fuentes para puntuar la “fiabilidad” de cada ciudadano, premiando y castigando según el puntaje. Esto es vigilancia llevada a sistema de ingeniería social. Filósofos liberales y defensores de derechos ven ahí un grave riesgo autoritario potenciado por tecnología. Yuk Hui mencionaría que este es un caso de cosmotécnica: en la cultura china quizás se enmarca como pro de armonía social confuciana, pero desde Occidente se ve orwelliano. Nos fuerza a preguntar: ¿la tecnología es buena o mala, o depende de los fines? Y ¿quién establece esos fines?

En síntesis, la vigilancia digital es uno de los grandes temas ético-sociales del presente.


Nos obliga a repensar valores fundamentales (privacidad, autonomía, libertad, dignidad) en un contexto donde la tecnología permite saberlo todo y recordarlo todo. Muchos filósofos contemporáneos trabajan en este cruce de tecnología y ética (p. ej., Agnes Heller escribió sobre moral en la sociedad de redes, Byung-Chul Han sobre la psicopolítica digital). La clave será encontrar un equilibrio: aprovechar lo bueno de la sociedad de la información (transparencia de gobiernos, por ejemplo, o prevención de delitos) sin caer en una sociedad de control total que anule la individualidad.


4. Redes sociales, esfera pública y subjetividad

Relacionado con lo anterior, las redes sociales (Facebook, Twitter –ahora X–, Instagram, YouTube, TikTok, etc.) merecen mención especial por su profundo impacto en la comunicación humana y la formación de la opinión pública. Nunca antes en la historia los seres humanos habían estado tan interconectados de forma instantánea, lo cual tiene facetas positivas (democratización de la voz, movimientos sociales organizados en línea, difusión rápida de información) pero también negativas (propagación de desinformación, discursos de odio virales, polarización extrema, adicción digital, superficialidad informativa).


El filósofo Jürgen Habermas desarrolló la idea de la esfera pública como espacio de debate racional en la sociedad. Muchos hoy se preguntan si las redes sociales han deformado la esfera pública en una especie de coliseo emocional donde prima el clickbait, la indignación y la posverdad. Los algoritmos de redes suelen priorizar contenidos que generan más engagement (y a menudo son los más polémicos o extremos, pues capturan atención). Esto, según diversos análisis, ha contribuido a una creciente polarización política en numerosos países: grupos ideológicamente opuestos viven en “burbujas” de información (echo chambers), reforzando sus creencias sin dialogar con la parte contraria. Desde un punto de vista marcuseano, podríamos ver esto como una falsa pluralidad que en realidad neutraliza la crítica efectiva: cada cual grita en su silo y el sistema global sigue sin cambios sustanciales.


Asimismo, las redes han transformado la construcción de la identidad. Autores como Zygmunt Bauman y Sherry Turkle han escrito sobre cómo en la modernidad líquida y la era digital las personas presentan “self” editados en línea buscando aprobación (los likes), lo cual puede generar ansiedad, comparaciones constantes y sensación de inautenticidad. Donna Haraway podría decir que todos nos hemos vuelto un poco cyborgs de la comunicación: nuestras identidades se negocian en parte a través de máquinas, pantallas y avatares. Esto abre posibilidades emancipadoras (p.ej. jóvenes LGBT+ encontrando comunidad y expresándose anónimamente donde en persona no podrían), pero también nuevas vulnerabilidades (ciberacoso, dependencia de la validación virtual, etc.).


Un fenómeno reciente es la explosión de noticias falsas (fake news) y teorías conspirativas en redes, lo cual es preocupante desde una óptica de razón ilustrada: la deliberación democrática depende de hechos compartidos, pero hoy grupos enteros creen en realidades alternativas promovidas en foros y videos (v.gr. movimientos antivacunas, terraplanistas, QAnon). Esto desafía a filósofos y científicos a pensar estrategias: ¿educación mediática masiva? ¿moderación de contenidos más estricta? ¿o incluso restricciones legales? Pero esto último choca con la libertad de expresión, en un dilema complejo. Además, está el poder de bots y campañas automatizadas, que pueden amplificar desinformación artificialmente. Otra vez la tecnología amplifica tanto lo bueno como lo malo, y la sociedad corre detrás tratando de reaccionar.


Desde la filosofía moral, Aristóteles decía que el ser humano es un animal social (politikon zoon). Las redes sociales son la hiperrealización de eso, pero sin la mediación de la presencia física y con una memoria digital permanente. Quizá necesitamos rescatar virtudes clásicas –como la templanza en el hablar, la amabilidad– adaptadas al entorno virtual. Algunos proponen códigos de conducta en línea, pero son difíciles de implementar sin caer en censura.


Otra perspectiva: las redes transforman la economía de la atención (como se mencionó antes). Se ha comparado a las grandes plataformas con los monopolios del siglo XX (petroleras, eléctricas) solo que ahora la materia prima es nuestra atención y datos. Filósofos políticos discuten si debería haber una regulación antimonopolio para Facebook/Meta, Google, etc., o considerarlas servicios públicos. También hay quien sugiere modelos alternativos: plataformas cooperativas gestionadas por usuarios, o redes descentralizadas de código abierto (ej: Mastodon en lugar de Twitter).


En suma, las redes sociales son un arma de doble filo: permiten comunicación horizontal y organización social (vemos su rol en las Primaveras Árabes de 2011, o en protestas recientes globales), pero simultáneamente han erosionado la calidad del debate público y la salud mental de algunos colectivos (especialmente jóvenes). La filosofía de la tecnología nos invita a no fetichizar la herramienta: la pregunta no es “¿Redes sociales sí o no?”, sino “¿bajo qué diseño y control?”. Aquí Feenberg otra vez sería relevante: plantearía involucrar a usuarios y sociedad civil en la gobernanza de estas plataformas, tal vez mediante regulaciones democráticas o creando alternativas no comerciales.


Al final, este tema toca también la ontología: ¿qué es real en la era virtual? ¿Importan tanto los followers como los amigos reales? ¿Qué significa verdad cuando “lo trending” tiene más impacto que lo verificado? Son preguntas filosóficas profundas que la tecnología nos obliga a enfrentar bajo nuevas luces.


5. Automatización, trabajo y economía

La automatización creciente de tareas mediante robots físicos (en industria, logística) o bots de software (en servicios, administración) es otro aspecto crucial. Se habla de una “cuarta revolución industrial” con fábricas inteligentes, Internet de las cosas, IA, que podría desplazar a un gran número de trabajadores humanos. Un estudio muy citado de Frey y Osborne (2013) estimó que cerca del 47% de los empleos en EE.UU. estaban en alto riesgo de automatización en un par de décadas (aunque previsiones más recientes son menos alarmistas). No obstante, es claro que sectores como la manufactura, transporte (vehículos autónomos), atención al cliente (chatbots) y otros sufrirán transformaciones radicales.


Esto revive la vieja pregunta: ¿la tecnología creará más empleos de los que destruye? Los luditas en el siglo XIX destruían máquinas por miedo al desempleo, pero a largo plazo surgieron nuevas industrias. Sin embargo, algunos economistas actuales advierten que esta vez puede ser diferente, porque la IA y la robótica avanzadas no solo sustituyen trabajo físico rutinario, sino también tareas cognitivas rutinarias, e incluso creativas (ya hay IA componiendo música, escribiendo noticias básicas, diseñando logos). Si la capacidad productiva aumenta enormemente pero con poca intervención humana, podríamos enfrentar o bien un desempleo tecnológico masivo, o bien –en un escenario positivo– una liberación del trabajo forzoso.


Herbert Marcuse imaginaba, en su utopía, que la automatización total permitiría abolir la necesidad de trabajar largas horas, dando tiempo para el desarrollo libre de la personalidad (arte, juego, erótica, etc.). Sin embargo, bajo el capitalismo, temía que la gente no usara esa libertad porque habría sido condicionada a la pasividad consumista. Hoy, la discusión práctica gira en torno a conceptos como la Renta Básica Universal: si los robots producen la riqueza, quizás haya que desvincular ingresos de empleo y dar una renta a todos para que puedan vivir dignamente pese a no tener trabajo tradicional. Filósofos políticos (como Philippe Van Parijs) apoyan la renta básica como garantía de libertad real en un mundo de automatización.


Marx ya había analizado que la maquinaria aumenta la productividad pero también la alienación si el obrero se vuelve accesorio de la máquina. En la era digital, esa tesis se ve en trabajadores como los riders de apps o los empleados de Amazon, controlados por algoritmos que maximizan su eficiencia casi tratándolos como robots. Esto es una deshumanización del trabajo vía tecnología. A su vez, hay un fenómeno paradójico: “trabajo fantasma” detrás de las IAs –ejércitos de etiquetadores de datos en países en desarrollo que realizan tareas repetitivas mal pagadas para que los algoritmos funcionen. La supuesta autonomía de la IA a veces oculta explotación de mano de obra precarizada en la sombra.

Desde un punto de vista ético, hay consenso en que la transición debe gestionarse para evitar aumentar la desigualdad. De nuevo, la tecnología per se no determina el resultado: Feenberg diría que debemos decidir políticamente cómo usarla. Podríamos optar por usar ganancias de productividad para reducir jornada a todos (p. ej., semana laboral de 4 días), o podríamos dejar que solo unos pocos se beneficien con enormes beneficios mientras la mayoría sufre precariedad. Es una elección social.


Otro ángulo es el significado del trabajo. Más allá de lo económico, muchas personas encuentran identidad y propósito en sus empleos. Si las máquinas nos reemplazan en la mayoría de tareas, ¿qué haremos con nuestras vidas? ¿En qué ocuparemos el tiempo? Bertrand Russell en 1930 escribió Elogio de la ociosidad, defendiendo que con ocio bien distribuido la gente podría florecer en ciencia, arte, hobbies. Otros temen que “el ocio forzado” lleve a problemas sociales (la famosa frase “el ocio es la madre de todos los vicios” refleja esa ansiedad). Aristóteles distinguía entre ocio noble (scholé, dedicarse a la filosofía, por ej.) vs. ociosidad vacía. Esto nos llevará a replantear cómo educamos a las nuevas generaciones: quizás deban prepararse no para un oficio de por vida, sino para aprender continuamente, adaptarse y encontrar sentido fuera del empleo convencional.


Una perspectiva interesante es la de Ivan Illich, quien en los 1970s hablaba de convivialidad: herramientas al servicio de la comunidad que permitan a la gente autoorganizarse en lugar de ser dominados por sistemas masivos. Quizás en el futuro automatizado surja la necesidad de reenfocar en economías locales, DIY (hazlo tú mismo), artesanía revalorizada, etc., como contrapeso a la alta tecnología impersonal.


Desde la filosofía existencial, pensadores como Hannah Arendt distinguieron “labor, trabajo y acción”. La labor (trabajo necesario para subsistencia) podría minimizarse con la automatización; el trabajo creativo (fabricar objetos duraderos) y la acción política podrían ocupar más espacio en la vida humana. Ojalá la tecnología lo permitiera, pero no es automático: depende de cómo se distribuyan beneficios.


En resumidas cuentas, la automatización es un examen para nuestra ética social: ¿usaremos las máquinas para emancipar al ser humano del esfuerzo duro y repartir los frutos equitativamente (realizando en parte el sueño de Marx de “libertad realmemente alcanzada” cuando el reino de la necesidad cede al de la libertad)? ¿O caeremos en nuevas desigualdades donde una tecno-élite posee robots y algortimos y la mayoría queda marginada? La respuesta no está predeterminada por la tecnología, sino por decisiones políticas informadas por valores filosóficos como justicia, solidaridad y dignidad humana en el trabajo.


6. Ética y gobernanza de la tecnología

Por último, un tema transversal es la ética de la tecnología en sí misma y cómo gobernarla. Dado todo lo discutido –IA, biotecnología, datos, etc.– se vuelve crucial desarrollar marcos éticos y normativos para guiar la innovación responsable. Ha surgido un campo llamado Technoethics o Ética de la Tecnología (término acuñado por Mario Bunge en 1974), que aborda los dilemas sociales creados desde la Revolución Industrial hasta la era actual: desempleo técnico, alienación, deterioro ambiental, etc., y ahora también ciberética, bioética, roboética, etc.


Varios modelos éticos tradicionales se aplican a casos tecnológicos: el utilitarismo preguntará cómo maximizar bienestar con la tecnología (por ejemplo, evaluar costo-beneficio de energía nuclear vs renovable); la ética deontológica kantiana insistirá en respetar derechos y principios (no instrumentalizar personas con tecnología, e.g., no usar reconocimiento facial para oprimir minorías); la ética de la virtud buscará formar profesionales de la ingeniería con virtudes como prudencia, responsabilidad, humildad, honestidad. Además, han emergido nuevos principios, como la idea de precaución (Principio de Precaución: ante riesgo de daño grave por una tecnología, aunque no haya certeza científica, mejor abstenerse o regular estrictamente). Por ejemplo, con tecnologías genéticas hay llamados a precaución extrema.


La gobernanza de la tecnología implica involucrar a múltiples actores: ingenieros, científicos, gobiernos, empresas, sociedad civil, público general. Se han desarrollado enfoques como el “Diseño Ético Integrado” que incorpora filósofos y representantes ciudadanos en etapas tempranas de I+D para anticipar impactos. También se usan herramientas como el Technology Assessment (evaluación de tecnologías) en parlamentos para informar legisladores.


Instituciones como la ONU y la UE han convocado comités de ética para IA (la UNESCO con su Recomendación, la UE con la “AI Act” propuesta, etc.). En bioética, desde los 1970s existen comités hospitalarios y declaraciones globales (Declaración de Helsinki, etc.), que ahora se amplían a neuroética (p.ej. regulación de neuromarketing, protección de “neurorights” – Chile incluyó derechos neurocognitivos en su legislación, primero en el mundo).


Una pregunta abierta es si necesitamos una ética global para la era tecnológica. Hans Jonas en 1979 escribió El principio de responsabilidad, proponiendo una ética para la civilización tecnológica basada en la responsabilidad hacia las futuras generaciones y la biosfera. Jonas decía que nuestro poder técnico es tan grande que debemos actuar con humildad y prever consecuencias a largo plazo (por ejemplo, no agotar recursos ni colapsar ecosistemas). Hoy esta idea se refleja en la ética ambiental y en las discusiones sobre cambio climático: la tecnología nos dio poder de alterar el planeta entero (Antropoceno) y con ello viene la responsabilidad de autocontrolarnos a escala global.


También se habla de la necesidad de inculcar una ética profesional fuerte en ingenieros y tecnólogos: similar al juramento hipocrático de médicos, pero para quienes desarrollan software, IA, infraestructuras críticas. Varias asociaciones (como ACM, IEEE) tienen códigos de conducta que enfatizan no hacer daño, ser honestos sobre limitaciones, respetar privacidad, etc. Sin embargo, en un entorno corporativo competitivo, a veces los incentivos económicos empujan en dirección contraria. Por eso muchos piden una mayor regulación pública en tecnología: no dejarlo todo a la autorregulación de la industria. Por ejemplo, leyes antimonopolio para Big Tech, tratados internacionales para armas autónomas (que algunos comparan con una “carrera armamentista” de robots militares), restricciones a la biometría masiva, etc.


En últimas, se trata de reintroducir la reflexión humana deliberada en un ámbito que a veces parece moverse más rápido que nuestra capacidad de entenderlo. La filosofía de la tecnología aporta esa pausa reflexiva, historiando cómo llegamos aquí (como hicimos recorriendo de Platón a Yuk Hui) y preguntando teleológicamente “¿hacia dónde queremos ir?”. Es un contrapeso necesario a la euforia acrítica del tecnófilo y al fatalismo del tecnófobo.


Vale recordar la advertencia de Einstein: “la tecnología progresó tan rápidamente que nuestra sociedad se volvió una carrera de autos con conductores adolescentes”. Necesitamos madurez ética a la par del avance técnico. De lo contrario, podríamos sucumbir al “síndrome de Frankenstein” –temor ancestral de que nuestras creaciones se vuelvan contra nosotros– ya sea literalmente (IA fuera de control, catástrofes ecológicas) o simbólicamente (pérdida de humanidad).


La ética aplicada a tecnología busca precisamente evitar ese destino, guiándonos hacia un futuro donde la técnica esté al servicio de la realización humana y el cuidado del planeta, y no la inversa. Este es quizá el punto de convergencia de muchos filósofos citados: desde Aristóteles que quería la téchne al servicio de la vida buena, pasando por Marcuse que soñaba con una nueva racionalidad técnica liberadora, hasta Yuk Hui que aboga por cosmotécnicas que reintegren moral y técnica. El reto del siglo XXI es hacer realidad ese ideal mediante instituciones, leyes, prácticas educativas y activismo que orienten la tecnología con sabiduría.


Conclusiones

A través de este extenso recorrido histórico-filosófico, hemos visto cómo la comprensión de la tecnología y su vínculo con el ser humano ha ido evolucionando –no linealmente, sino en debates y giros constantes– desde la antigüedad hasta la actualidad. Platón y Aristóteles sentaron las bases, planteando preguntas sobre la relación entre el conocimiento práctico (téchne) y la verdad, entre la técnica y la virtud, prefigurando tensiones que perduran. Con la modernidad, figuras como Descartes y Bacon ensalzaron el poder de la técnica guiada por la ciencia para dominar la naturaleza y “mejorar la vida humana”, inaugurando la era del optimismo tecnológico que caracterizó a la Ilustración. Kant y Hegel, desde sus sistemas filosóficos más abstractos, integraron la idea de progreso técnico en la visión de una humanidad en marcha hacia la emancipación, aunque sin examinar la técnica por sí misma de forma crítica.


Es en el siglo XX, tras las guerras mundiales, la industrialización total y la revolución electrónica, cuando emerge la filosofía de la tecnología como campo específico. Heidegger aporta una meditación ontológica profunda, advirtiendo del peligro de la “estructura de emplazamiento” que convierte al mundo (y al hombre) en recurso manipulable, pero también dejando abierta la posibilidad de otra relación más contemplativa con la técnica. Simondon, con un talante conciliador, nos invita a entender y amar los objetos técnicos, superando la alienación mediante una cultura que integre lo técnico en lo humano sin miedo ni idolatría. Marcuse y la Teoría Crítica denuncian cómo la racionalidad tecnológica vigente se entrelaza con relaciones de dominación en la sociedad industrial avanzada, pero sin renunciar a imaginar un reorientación liberadora de la técnica bajo nuevos valores. Feenberg, heredero de esa tradición, actualiza la crítica subrayando la posibilidad y necesidad de democratizar las decisiones tecnológicas –que la sociedad en su conjunto participe en dar forma a las máquinas que damos por supuestas–. Haraway, desde el feminismo, nos desafía a habitar creativamente la frontera humano-máquina, usando la figura del cyborg para romper dualismos y reivindicar identidades híbridas y políticas de afinidad en la era tecnocientífica. Finalmente, Yuk Hui nos alerta contra el universalismo ciego: la tecnología no es única ni monocultural, existen cosmotécnicas múltiples y recuperar esa diversidad de enfoques podría ser clave para salir de la crisis global a la que la monotecnología occidental nos ha conducido.


En la parte final vimos cómo estos aportes iluminan debates contemporáneos muy concretos: la inteligencia artificial, con sus promesas y riesgos, reaviva cuestiones sobre la mente, la responsabilidad y el trabajo que filosofías previas ya exploraron bajo otras formas. El transhumanismo cuestiona los límites de la naturaleza humana, llevando a la práctica el antiguo sueño prometeico y forzándonos a deliberar éticamente sobre qué mejoras son aceptables y quién decide. La omnipresencia de la vigilancia digital y las redes sociales plantea desafíos a la autonomía individual, la autenticidad y la democracia, requiriendo quizás nuevas “tecnopolíticas” para preservar la libertad en la era del algoritmo. La automatización masiva nos enfrenta al dilema de liberar al hombre del trabajo o condenarlo al desempleo y la falta de propósito, un escenario que depende de decisiones económicas, políticas y culturales informadas por visiones filosóficas de la justicia y la buena vida. Y en general, la ética de la tecnología y su gobernanza se erigen como campos indispensables: necesitamos marcos normativos y virtudes cívicas para manejar un poder técnico sin precedentes, so pena de que ese poder nos desborde.


En conclusión, la relación entre ser humano, técnica y sociedad es un eje central de la reflexión filosófica porque, en cierto sentido, define nuestra época y nuestro futuro. Cada filósofo estudiado –desde Platón hasta Yuk Hui–, en diálogo con las condiciones y angustias de su tiempo, nos ofrece herramientas conceptuales para pensar esa relación. No hay respuestas fáciles ni unívocas: la tecnología ha sido vista como salvación, peligro, instrumento neutral, sistema de alienación, forma de cultura, espacio de liberación… y contiene todas esas potencialidades a la vez.


Tal vez la lección más importante de este recorrido sea la necesidad de mantener una actitud crítica y reflexiva permanente frente a la técnica. Como afirmaba Hans Jonas, cuanto mayor es nuestro poder, mayor ha de ser nuestra responsabilidad (Jonas, 1979). La filosofía de la tecnología nos exhorta a no deslumbarnos ingenuamente con el brillo de lo nuevo, pero tampoco a demonizarlo sin matices. En su lugar, nos propone pensar históricamente y éticamente la técnica: entender de dónde viene (por qué ciertos valores la moldearon) y deliberar hacia dónde debería ir (al servicio de qué fines humanos y planetarios).


En palabras de Don Ihde, otro filósofo del área, “las tecnologías no son meros artefactos externos; median nuestra forma de estar en el mundo” (Ihde, 1990). Por tanto, filosofar sobre la tecnología es, en el fondo, filosofar sobre nosotros mismos y el mundo que queremos habitar. Y en esta tarea, el diálogo entre la sabiduría antigua, la crítica moderna y la imaginación futura resulta invaluable. Solo integrando todas esas voces –Platón dialogando con Haraway, Aristóteles con Simondon, Descartes con Feenberg, Heidegger con Yuk Hui– podremos forjar una comprensión sólida y una praxis prudente en este siglo XXI hiper-tecnológico.


La filosofía de la tecnología, en definitiva, nos proporciona no recetas mágicas, pero sí algo quizá más valioso: la capacidad de preguntar y cuestionar continuamente el uso de nuestras creaciones técnicas, iluminando opciones donde otros ven fatalidad, y recordando siempre que, aun en un mundo de máquinas inteligentes, la medida última deben ser la dignidad y el florecimiento del ser humano en armonía con su comunidad y su entorno natural.


Referencias

  • Aristóteles. (2004). Ética Nicomáquea (trad. M. A. Rodríguez). Madrid: Alianza Editorial. (Obra original ~330 a.C.).

  • Bostrom, N. (2005). A history of transhumanist thought. Journal of Evolution and Technology, 14(1), 1–25.

  • Descartes, R. (2010). Discurso del método (trad. M. García Morente). Madrid: Austral. (Obra original 1637).

  • Feenberg, A. (1999). Questioning Technology. London/New York: Routledge.

  • Haraway, D. (1991). Manifiesto para cyborgs: ciencia, tecnología y feminismo socialista a finales del siglo XX. En Ciencia, cyborgs y mujeres: la reinvención de la naturaleza (pp. 249–324). Madrid: Ed. Cátedra. (Original en inglés, 1985).

  • Heidegger, M. (1994). La pregunta por la técnica. En Conferencias y artículos (pp. 9–40, trad. H. Cortés y E. Rivera). Barcelona: Ediciones del Serbal. (Conferencia original 1954).

  • Hui, Y. (2020). Fragmentar el futuro: ensayos sobre tecnodiversidad (trad. A. Rodríguez). Buenos Aires: Caja Negra.

  • Marcuse, H. (1985). El hombre unidimensional: estudios sobre la ideología de la sociedad industrial avanzada. Barcelona: Planeta. (Obra original en inglés, 1964).

  • Mitcham, C. (1994). Thinking Through Technology: The Path between Engineering and Philosophy. Chicago: University of Chicago Press.

  • Moreno Ortiz, J. C. (Ed.). (2020). Tecnología, agencia y transhumanismo. Bogotá: Universidad Santo Tomás.

  • Platón. (2015). Protágoras. En Protágoras, Gorgias, Carta Séptima (trad. F. J. Martínez). Madrid: Alianza Editorial. (Diálogo original ~380 a.C.).

  • Simondon, G. (2007). El modo de existencia de los objetos técnicos (trad. M. Martínez y P. E. Rodríguez). Buenos Aires: Prometeo Libros. (Obra original en francés, 1958).

  • UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. París: UNESCO Publishing.

  • Zuboff, S. (2019). La era del capitalismo de vigilancia: la lucha por un futuro humano frente a las nuevas fronteras del poder. Madrid: Paidós. (Título original: The Age of Surveillance Capitalism).


Este texto ha sido redactado con ayuda de Inteligencia Artificial.

bottom of page