Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
https://doi.org/10.17163/soph.n39.2025.10
la inteligenCia artifiCial y el riesgo
de una analogía invertida
Artificial Intelligence and the Risk
of an Inverted Analogy
J D Q O*
Universidad Católica San Pablo, Arequipa, Perú
jdquiceno@ucsp.edu.pe
https://orcid.org/0000-0002-3668-3830
Forma sugerida de citar: Quiceno Osorio, Juan David. (2025). La inteligencia artificial y el riesgo de una analogía
invertida. Sophia, Colección de Filosofía de la Educación, (39), pp. 315-335.
Resumen
Este trabajo tiene como objetivo plantear los elementos generales que permitan discutir la realidad de la
inteligencia artificial (IA) y su lugar en el mundo como objeto tecnológico. Con esto se pretende plantear la
necesidad de revertir la analogía de la inteligencia que en primer lugar es humana y solo de forma derivada
artificial. Para ello, inicialmente, se hará un recorrido conceptual de algunos de los elementos más importantes
que la filosofía ha dado a conocer sobre la inteligencia humana. De esta forma, es posible hacer un contraste
con la metáfora de la IA. Es decir, distinguir el sentido con que se usan las palabras “inteligencia y artificial
en referencia a las máquinas. Al plantear estos aspectos abordaremos la distinción entre los objetos mecánicos
y tecnológicos con la intención de mostrar algunas de las especificidades de la IA. Con esto en mente, se aborda
una última cuestión en torno a si, frente a todas estas distinciones que genera el análisis de la realidad de la
“inteligencia artificial” como una novedad que tiene mayor autonomía frente a lo humano, pero que usa todo su
ingenio matemático y sus habilidades comunicativas, es necesario proponer términos y categorías más apropiadas
para evitar la inversión de la analogía antropológica y dar contornos precisos al marketing de estas tecnologías.
Palabras clave
Inteligencia, inteligencia artificial, tecnología, ser humano, ética, responsabilidad.
* Doctor de Filosofía por la Universidad de Navarra, España, coordinador de pregrado del De-
partamento de Humanidades de la Universidad Católica San Pablo, Perú, donde se desempeña
como profesor de Antropología Filosófica e investigador reconocido por la RENACYT. Su cam-
po de interés es la antropología y el diálogo interdisciplinar con las ciencias cognitivas. Google
Académico: https://scholar.google.es/citations?user=WcwVbUkAAAAJ&hl=es&authuser=2
Índice h: 3
316
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
Abstract
e aim of this paper is to present the general elements that allow us to discuss the reality
of Artificial Intelligence (AI) and its place in the world as a technological object. e intention
is to suggest the need to revert the Intelligence Analogy that is primarily human and artificial
just in a derivate form. To do so, first, will be made a conceptual itinerary showing some of the
most important elements thats philosophy has made known about human intelligence. In that
way, it is possible to contrast the metaphor of AI. at is, to distinguish the sense in which the
words “intelligence and artificial are used in reference to machines. In raising these aspects, we
will address the distinction between mechanical and technological objects with the intention of
showing some of the specificities of AI. Finally, the question is if, in the face of all these distinctions
generated by the analysis of the reality of artificial intelligence as a novelty that has greater
autonomy from the human, but uses all its mathematical ingenuity and communicative skills,
it is necessary to propose more appropriate terms and categories to avoid the inversion of the
Anthropological Analogy and to give precise contours to the marketing of these technologies.
Keywords
Intelligence, Artificial Intelligence, Technology, Human Being, Ethics, Responsibility.
Pero, eso es lo maravilloso del ser humano: nunca
se desanima ni se disgusta lo suciente para renunciar a hacerlo
todo de nuevo, porque sabe muy bien que es importante y vale la pena.
Ray Bradbury, Farenheit 451
Introducción
Probablemente el riesgo que plantean hoy las nuevas tecnologías no sea
que se cumplan algunas ficciones literarias o cinematográficas en donde
la vida humana se encuentra en peligro frente a un crecimiento exponen-
cial de la inteligencia artificial (IA), que la lleve a salirse de control y a
volverse contra el hombre. A pesar de que la autonomía de las máquinas
en este momento esté rodeada por un aura de misterio, es cierto que no
se debería esperar que se salgan de control y que hagan cosas que están
más allá de su arquitectura.1 Desde diversos filósofos y sociólogos, entre
las más variadas tradiciones, la verdadera catástrofe que podría traer la IA
es que, siendo una ayuda para ciertas actividades humanas —que muchas
veces acertada o erróneamente se dijeron propiamente del ser humano—
las hiera de muerte y, con ellas, ámbitos esenciales de la vida como por
ejemplo la memoria, el aprendizaje, el ejercicio crítico del pensar, el arte,
el recurso a la libertad o la importancia de las relaciones cara a cara (Ba-
rrios et al., 2020).
No es esto una novedad. Como comenta el filósofo francés Éric Sa-
din (2017, p. 34), se trata de un proceso de digitalización de la existencia
317
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
humana. Hoy, ámbitos como el juego, el conocimiento, la profesión, las
relaciones sociales de amor y amistad, la sexualidad, la economía, la polí-
tica… en otras palabras, la vida humana en general, se van “virtualizando
y por esa vía se van transformando, así como se van transformando las
tradicionales formas de estar y relacionarse con el mundo (Gonzálvez-
Pérez & Cortijo-Ruiz, 2023, p. 44). Específicamente, por vía de los algo-
ritmos especializados que presentan a los usuarios lo que desean y que,
en teoría, responden a sus preferencias. No obstante, personalizar (custo-
mize) en estas circunstancias parece más sinónimo de cosificación que
de respeto por la persona. Es un proceso por el que el ser humano va
quedando atrapado en los dispositivos electrónicos y en las tendencias,
influencias, historias, narrativas y certezas empíricas que los algoritmos
le ofrecen y que van, paradójicamente, minando sus facultades más no-
bles. Por ello, en parte no es descabellado decir que al sujeto pensante
de la Modernidad lo viene reemplazando un sujeto algorítmico (Sadin,
2017, p. 60). Esto no sucede porque el ser humano sea en última instancia
pensante o matemático (Quiceno & Morales, 2024), sino porque los algo-
ritmos se van convirtiendo en fuente de certeza y modo de vida (Sadin,
2020, p. 58).
La conveniencia de la aparición de este sujeto algorítmico es lo que
se tiene que revisar a la hora de plantear cualquier estrategia de regula-
ción de estas tecnologías (Karasinski & Birolo 2022). Es la única manera
de no rendirse frente al estupendo funcionamiento de la IA y de no olvi-
dar, ni la responsabilidad humana, ni la reflexión filosófica detrás de ella.
Reconociendo también que la filosofía, en cierto sentido, está en desven-
taja frente al avance acelerado de la técnica y solo puede evaluarla con
mayor perspectiva a posteriori. En ese sentido, por un lado, la responsabi-
lidad humana es el fulcrum de toda la discusión, sin esta conciencia fun-
damental, es normal que este proceso de digitalización sea una forma de
autodestrucción consentida. Por otro, dado que normalmente la técnica
va muy por delante de la filosofía, hay que reconocer que ahora vivimos
de la asfixia de la propaganda, las imaginaciones, las películas, el marke-
ting, lo cual parece que nos incapacita para asimilar adecuadamente lo
que nos estamos encontrando (Pérez Marcos, 2023, p. 17).
En consecuencia, poniendo el foco sobre la responsabilidad huma-
na y su relación con su propia obra, el objetivo de este trabajo es señalar
algunos de los aspectos más importantes de la inteligencia humana de
forma que se pueda discutir la realidad de la “inteligencia artificial”, su lu-
gar en el mundo como objeto y producto tecnológico, y revertir el sentido
con el que se usan los términos. Esto último es lo que se ha denomina-
318
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
do “revertir las analogías. Especialmente porque estas tecnologías ganan
cada vez más espacio en la vida humana y por momentos parece que se
posicionan como el modo propio en el que se entienden realidades esen-
ciales y que, como consecuencia, dan pie a otro tipo de reducciones que
atentan contra la dignidad, la educación y la ciencia.
Para lograr este objetivo, se ha revisado las fuentes documentales
para poner en evidencia algunos de los aspectos más importantes de la
inteligencia humana y plantear lo que, a nuestro modo de ver, son los
rasgos esenciales que circunscriben el fenómeno de la IA. Con ello, se
pretende mostrar la necesidad de discutir, revisar y revertir las analogías
o metáforas que usa la tecnología para describir su actividad y que, poco
a poco, ganan terreno culturalmente como los sentidos propios con los
que entendemos las cosas.
Así, se ha estructurado el documento en tres partes. En primer lu-
gar, se hace una síntesis conceptual de los aspectos esenciales de la inteli-
gencia humana. En segundo lugar, se da una definición de la metáfora de
la IA en la que se busca distinguir el sentido con el que se usan las pala-
bras inteligencia y artificial en referencia al ser humano y a las máquinas.
En esa reflexión, resulta esencial analizar los rasgos propios de la IA para
encontrar, tanto sus semejanzas como particularidades, considerando
que se trata de una obra hecha a imagen de ciertos procesos cognitivos
del ser humano y que tienen una tendencia marcadamente antropomór-
ca. Finalmente, se busca responder a la pregunta de si frente a todas
las distinciones que provoca el análisis, es necesario proponer un aparato
lingüístico con nuevas categorías más precisas que den contornos defini-
dos al marketing y las ficciones literarias de estas nuevas tecnologías. La
idea es dar a entender que, frente a la emergencia e importancia de estas
tecnologías en la vida humana, es necesario al menos debatirlo.
La inteligencia no puede ser artificial
Es difícil en poco espacio ser exhaustivo con un tema tan amplio como
la inteligencia. Un asunto que, además, podría llevar la reflexión por dis-
tintas vías de la filosofía, la ciencia experimental e incluso de la teología.
También sería pretensioso decir que se pueden abarcar todos los aspectos
de la inteligencia, incluso aquellos que son más importantes. Se nos con-
ceda que, por lo menos, hagamos el esbozo de una síntesis conceptual de
lo que se considera apropiado de una reflexión no reduccionista en torno
al tema y que, por supuesto, no pretende agotar la reflexión. Con estas
319
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
anuencias se procura mostrar la magnitud de una reflexión que seguirá
abierta mientras la misma inteligencia exista y contrastar aquello que hoy
vulgarmente denominamos “inteligencia artificial y que, en parte, es lo
que se platea como objetivo de este trabajo.
En primera instancia comenzamos con dos pilares del pensamien-
to occidental: Platón y Aristóteles. Platón (1872) ha dejado escrito para
la posteridad la reflexión en torno a la trascendencia de las ideas, el re-
conocimiento de la racionalidad del mundo y la importancia del cono-
cimiento de sí. Por su parte, Aristóteles (1994) ha dejado pistas sobre lo
que significa la apertura intencional de la inteligencia a todo lo que existe,
incluyendo la divinidad con quien, según él mismo, parece emparentarse
por esa misma vía.
Platón ha dejado como herencia la filosofía de las ideas. El filó-
sofo ateniense comprendió que, de alguna manera, los seres humanos
son capaces de comunicarse con sentido y que esa comunicación supone
un terreno común que no depende de la perspectiva del hablante, sino
de la consistencia misma de la realidad (Ricoeur, 2013, pp. 24, 152). En
ese sentido, las ideas trascienden inicialmente el mundo de lo empírico
(Franck, 2018, p. 104) y sugieren la existencia de un tipo de realidad que
tiene una estabilidad propia, que invita a la contemplación, que ilumina
la realidad de la experiencia como una forma de concreción y para la que
los únicos capacitados son, precisamente, los seres inteligentes (Platón,
1988, p. 342). En esta stabilitas de la teoría, radica el que las ideas de la
filosofía se mantengan activas en la vida humana casi de forma continua
(Gilbert, 2008, p. 64), como si fueran una herencia que pasa de generación
en generación. En las ciencias empíricas modernas, esto ocurre según el
devenir mismo de lo que se considera un avance dado que enfocadas en
lo que se supone un progreso, mudan continuamente los conocimientos y
las certezas que alcanzan, reemplazándose continuamente. La tecnología
en este caso es bastante paradigmática.
En segundo lugar, Plan (1872) hizo tomar conciencia a la hu-
manidad de la racionalidad del mundo, como describe en el Timeo, “el
mundo tiene orden y estructura (p. 164). Sin embargo, el ateniense da un
paso más allá cuando interpreta que el ordo del mundo es fruto de una
inteligencia capaz de poner cada cosa en su lugar. En ese sentido, plantea
que la inteligencia humana es capaz de captar ese orden y reconocer lo
inteligente por vía de la racionalidad. Inversamente, “la racionalidad es
manifestación de una inteligencia capaz de establecerla (Soler & López,
2005, p. 30), una legalidad que se puede describir (y que sería el principio
de toda prescripción) por vía de las diferentes modalidades del lenguaje
320
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
con el que intentamos expresarlo. En este caso, no solo al lenguaje cate-
gorial, sino también, por ejemplo, aquel matemático, físico o bioquímico.
Por eso, el principio de toda la ciencia básica y experimental es el recono-
cimiento de que el mundo tiene una racionalidad que es posible conocer
y comunicar (Soler & López, 2005).
Por último, Platón (2018), como fruto de su profundo vínculo con
crates, dejó para la posterioridad la reflexión sobre el conocimiento
de sí. Para el ser humano el conocimiento del mundo es, a la par, conoci-
miento de sí.
Aristóteles (1994, p. 69) retoma esta enseñanza muy a su modo,
pero lo que aporta a la comprensión de la inteligencia es superlativo. En
primera instancia, que el conocimiento está marcado por el deseo, por
una especie de hambre de saber inagotable y fuente de infinita novedad
que habita en la naturaleza humana. Pero agrega que, en las formas de co-
nocimiento, aquel humano presenta una particularidad y es que su nous
poietikós es capaz de “hacerse todas las cosas (1978, p. 234). De esta for-
ma, Aristóteles comprendió que para que la inteligencia tuviese semejante
poder tenía que ser capaz de abstracción, de traer hacia sí la intimidad de
los seres y conocerlos en su radicalidad más profunda. Esto, como bien
declara, es solo posible de una inteligencia “impasible, no material y, por
tanto, inmortal” (p. 234). De aquí sus dudas sobre el carácter humano de
la inteligencia.
Ahora bien, fueron los pensadores cristianos quienes llevaron este
asunto hasta un punto más profundo al conectarlo con la posibilidad
del ser humano de conocerse a sí mismo (Agustín, 2019), al explorar la
trascendencia personal de ese conocimiento (Landsberg, 2016, p. 322) y
acentuar la búsqueda de la verdad como manifestación de ese encuentro
originario.
Estos pensadores2 reconocieron que el ser humano, si bien es ín-
fimo en relación con la infinitud del universo, alberga en sí el potencial
de conocerlo y tener conciencia de ello. Como describe magistralmente
Pascal (1986):
El hombre no es más que una caña, lo más débil que existe en la natura-
leza; pero es una caña que piensa. No es preciso que el universo entero
se alce contra él para aplastarle: un vapor, una gota de agua basta para
matarle. Pero, aunque el universo le aplastase, el hombre seguiría sien-
do más noble que lo que le da la muerte, puesto que sabe que muere y
conoce la superioridad que el universo tiene sobre él, mientras que el
universo no sabe nada (pp. 63-64).
321
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
Seguramente conocer el basto universo no parece posible de forma
efectiva. Pero que el ser humano esté abierto a conocerlo intencional-
mente revela la profundidad de su interioridad, igual de infinita que el
cosmos; incluso más expandida si se considera su tarea y la conciencia de
dicha tarea. De ahí que muchos de estos pensadores lograran comprender
que tanto el conocimiento del mundo como el conocimiento de sí, con
su complejidad mixta, es una tarea ilimitada que habla de la naturaleza
misma del ser humano (Descartes, 1991).
Estos mismos pensadores llevaron el asunto de la inteligencia a una
segunda trascendencia que Platón no tenía como imaginar del todo. Es
decir, que esa inteligencia es personal (Di Nissa, 2000, p. 119). Esto quiere
decir que la nobleza de la inteligencia proviene de la dignidad misma de
quién la posee (Spaemann, 2010) y que, dado que se trata de alguien y no
de algo, el conocimiento solo puede ser personal e interpersonal y, por
tanto, vivido y actuado (Stein, 2020, p. 163). Esto resulta muy importante
a la hora de considerar la inteligencia y se suele descuidar. La inteligencia
no es propia de seres separados, no se puede ser humanamente inteligente
sin un cuerpo (Landsberg, 2006, p. 14) y, ontológicamente, sin una perso-
na que tenga conciencia de aquello que conoce (Serretti, 2008, p. 82), de
sus emociones (Rodríguez Valls, 2015) y de los contenidos de conciencia
que recibe-de y entrega-a aquellos con los que integra el mundo de la vida
(Ricoeur, 2006, p. 379).
De esta forma, se podría decir que una inteligencia sin personas,
sin ideas, sin cuerpo, sin relaciones, sin emociones y sin acciones no es
una verdadera inteligencia. Además, solo la persona es capaz de discri-
minar los conocimientos. La conciencia que tiene de sí le permite dife-
renciar la verdad de la mentira, la parcialidad del error deliberado y la
ideología de los principios primeros de la realidad. Tal como los doctores
medievales han reflexionado hasta el cansancio, la verdad conviene a la
inteligencia (Tomás de Aquino, 2007, p. 38). Por eso suele tener valor por
sí misma y en sí misma. Se busca porque perfecciona al ser humano y
permite encontrar el sentido de lo que existe. Esto no impide la búsqueda
de la utilidad, pero en un sentido, le sirve como orientación.
Atendiendo lo mencionado, la inteligencia que llamamos artifi-
cial no es una inteligencia y quizá se pueda ver solo como un potencial
complemento (Khasawneh et al., 2024, p. 309). La inteligencia no puede
ser artificial porque ella solo puede ser personal. Esta idea se podía ya sos-
pechar de la argumentación y, aunque también es un dato de experiencia,
es frecuente ponerla en duda frente a la velocidad y enorme capacidad
que tienen las máquinas para estructurar los datos que tienen a disposi-
322
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
ción. Por esta razón, cada vez es más difícil percibir la diferencia e incluso
no está dicho que todos lo vean así.
De hecho, la discusión parece surgir por vía de las neurociencias —
que juegan aquí un rol que no tenemos cómo desarrollar a cabalidad3— a
través de una visión mecanicista del conocimiento humano (McCulloch
& Pitts, 1990) y, más precisamente, del cerebro humano que para muchos
es el que piensa (Changeux, 2005).4 Con esta perspectiva antropológica
de fondo, se asume que la IA es una versión ampliamente mejorada de
la mencionada capacidad central del ser humano (Kurzweil, 2005). Aquí
está tanto el fundamento de la doctrina conexionista en las ciencias de
la información (Sadin, 2020, pp. 64-65) como la inversión de la analogía
antropológica y las potenciales reducciones del ser humano y de su dig-
nidad a objeto.
La IA vive del razonamiento y del cálculo probabilístico. Una acti-
vidad cognitiva muy importante que une conciencia y mundo, pero que
se limita al trato de la información por vía de la formalización matemáti-
ca. No hay en la máquina, ni persona (realidad que no puede reproducirse
algorítmicamente), ni autoconciencia, ni cuerpo (aunque tenga un sopor-
te), ni aprensión multisensorial, ni relacionalidad, ni conciencia del otro,
ni deliberación, ni planificación de cursos de acciones por las que hacerse
responsable, ni fines y, por tanto, ni proyección y mucho menos ignoran-
cia o errores propiamente dichos. La IA reproduce un aspecto muy con-
creto de la inteligencia humana que, en cierta medida, se ha exacerbado
en los últimos tiempos haciéndole tomar a la automatización del cálculo
probabilístico una magnitud que en realidad no tiene.
La pregunta, entonces, es por qué se denominan “inteligentes los
dispositivos tecnológicos actuales. La respuesta habría que encontrarla
en su misma actividad. Al parecer, porque bebiendo del ingenio humano,
aparecen naturalmente smarts (astutas y eficientes) para cierto tipo de
diligencias humanas. Igualmente, porque tienen un tipo de autonomía
mayor que las producciones artísticas y mecánicas, cosa que tímidamente
se empieza a llamar tecnológico como un límite absoluto de la categoría
de lo técnico. Esto dado que una vez que se enciende o se echa a andar
no necesita y no permite la intervención humana en sus deliberaciones.
Esta autonomía llega hasta el punto de que el humano empieza a tener
miedo de ser sorprendido, en tanto hay un espacio de respuesta que se
parece mucho a lo que reconoce en sí mismo como principio de la in-
terioridad (la famosa black box) y de la impredecibilidad de su libertad.
Analizar el tipo de obra que es la IA quizá pueda dar mayores luces en la
tarea que se ha planteado.
323
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
Producción: entre los procesos físicos y la vida consciente
Sin que sea necesario analizar directamente sus orígenes, como da a en-
tender Wiener (1988) en las declaraciones que impulsan el movimiento
cibernético norteamericano, la IA se mueve por una tendencia antro-
pomórfica. La cuestión es comprensible, por un lado, por la imagen que
tiene como referencia; por otro, por sus mismas aspiraciones (Blanco &
Garrido, 2024, p. 174). Es decir, de alguna manera se echa a andar una
dinámica que pretende que esta obra llegue a ser como su productor e,
incluso, vaya más allá de él.
En este caso, para no desviarse de la cuestión, la distinción que
propuso el filósofo estadounidense John Searle (1980) puede resultar bas-
tante útil. La IA puede dividirse en dos modos: fuerte y débil. El objetivo
de la IA fuerte se ha ido perdiendo y la mayoría de filósofos y técnicos
reconocen que a lo que se aspira está fuera del alcance de este tipo de
mecanismo. No parece posible reproducir la persona y su autoconciencia
ni en el laboratorio ni en un taller donde se mezcle toda la fuerza compu-
tacional posible y la más cuántica nanotecnología (Arana, 2015).
Por su parte, la IA débil, aquella que se centra en potenciar los as-
pectos matemáticos, de programación y de entrenamiento de los algorit-
mos, sin pretender sustituir lo propiamente humano, es la que ha tenido
mayor éxito (Sadin, 2017, p. 21). La tranquilidad que esto puede ofrecer
a algunos es solo aparente, aunque no es de esperar seres automatizados
conscientes que le hagan una guerra a la humanidad, no se puede perder
de vista que sus capacidades son sumamente potentes e impactan direc-
tamente la vida del ser humano (González Cuenca, 2021, p. 152). Como
piensa Guardini (1982), en los asuntos tecnológicos, el riesgo es siempre
que el productor renuncie a la vida individual de la obra y se acostumbre
a no querer producir más que lo que la máquina permite (p. 53). Desa-
parece con ello su relación personal con la realidad, poniendo con ello su
confianza y su vida en manos de su producto.
Por estas razones, hay que adelantar que cuando se dice que este
mecanismo es artificial, la afirmación es correcta solo en parte. Concre-
tamente, sí se interpreta como algo que no es vivo, no es personal y que
no se produce por generación, sino como fruto del poder transformador
del ser humano en el mundo. No obstante, lo artificial es, en este caso, un
límite que los algoritmos cruzan en virtud de su relación con la inteli-
gencia humana. Por esto hay en ella un aspecto propio de la racionalidad
humana que no es reducible a otros productos útiles (como el martillo,
324
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
o una vasija) o mecánicos (como aquellos sistemas de poleas o engranes
que se encuentran en una fábrica).
En esa medida, habrá que especificar también que la IA débil es
un mecanismo que supone una sofisticación de la acción humana. Ella
pone en conjunto todo el poder de cálculo de las matemáticas, cuya for-
malidad supone un grado de abstracción de la experiencia del mundo,
el desarrollo de lenguajes de programación con grandes capacidades de
abarcar diversas variables de la realidad y dar respuesta a ellas de forma
múltiple y, por supuesto, la combinación con un soporte electromecánico
que permite su funcionamiento.
Estos aspectos permiten ver algo de la complejidad de la IA, pero al
mismo tiempo algo de su especificidad. Como comenta Hannah Arendt
(2005) analizando los tipos de actos, acciones y actividades del ser hu-
mano en el mundo, en la Antigüedad clásica apenas se distinguió entre
el arte y la producción técnica. Ambos, de hecho, se referían como fruto
del mismo tipo de labor humana: la poiēsis. Un zapatero y un herrero
estaban a la altura de un artista en cuanto ambos eran productores de
un aspecto de la realidad que era una copia de un modelo original o un
simple aspecto cultural o utilitario que constituía la vida pública (Arendt,
2005, p. 170).
Sin embargo, dando un gran salto,5 con la filosofía y la física que
hoy se dice moderna, aparece una brecha entre ellas. Dentro de las obras
productivas humanas, una cosa es el resultado que surge del arte y otro
aquel de la fabricación de artefactos. Estos últimos suponen el intento de
otorgar una autonomía a la obra a partir de un funcionamiento mecánico
o una “lógica o “física interna entre las partes que lo constituyen. “Mecá-
nico se entiende ya no como una extensión de las capacidades humanas,
sino como aquello que se cristaliza a través de un proceso calculado y efi-
ciente que involucra el ingenio humano. Sin embargo, lo mecánico tiene
una particularidad y es que sus procesos latentes, son patentes. En otras
palabras, pueden ser interrumpidos por la acción humana y en cierta
medida, redireccionados no solo en su finalidad, sino intervenidos en su
principio y ejecución, aunque mantengan una autonomía frente al cuerpo
del ser humano y, solo en parte, de su inteligencia.
Decir que los procesos mecánicos son patentes implica, en cierta
medida, aceptar que el humano puede intervenir en su arquitectura, en su
programación paso a paso y en la finalidad de su ejercicio. En ese sentido,
si esas variables funcionan adecuadamente, el proceso mecánico es nor-
malmente predecible. Así, se puede conocer con anticipación las acciones
de una máquina embotelladora, de una máquina de coser, una olla arro-
325
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
cera o un automóvil.6 Las máquinas son predecibles porque siguen leyes
e indicaciones precisas que el ser humano pone en ellas y que le permiten
ver sus resultados sin mucha dificultad, salvo errores que normalmente
son, por lo mismo, mecánicos o de programación.
Al llegar a este punto hay que decir que lo técnico (que se puede
seguir identificando tout court como lo mecánico) alcanza en lo tecnoló-
gico un grado mayor de este aspecto productivo, pero incluso, por vía de
su relación con los aspectos cognitivos humanos, alcanza una especifici-
dad propia. Esta especificidad se puede describir al menos a partir de tres
aspectos: su mayor grado de autonomía, su capacidad computacional y su
revestimiento humano.
La IA supone una mayor distancia entre la máquina y su depen-
dencia de la intervención humana. Esto es a lo que se refiere su mayor
autonomía e implica una diferencia con lo mecánico. Si lo mecánico ya
suponía un dejar andar según las leyes establecidas y un retirarse del
cuerpo humano, en la IA la intervención humana casi desaparece en el
proceso de realización de las tareas e implica un retirarse de la inteligen-
cia humana. En este caso, se puede actuar en la arquitectura y se espera un
resultado sobre el cual se pueda evaluar el mecanismo. Pero las partes,
los pasos, las secuencias, son algo velado al usuario (Arão, 2024, p. 3).
En ese sentido, se espera una respuesta que parece imprevista y, además,
la máquina recibe una retroalimentación de su ejecución lo cual le permi-
te afinar sus predicciones. Por vía de cálculo probabilístico puede integrar
la interacción en su capacidad de respuesta. Esto ha significado que se
extienda también la metáfora del aprendizaje para referirnos al hecho de
que las IA se vayan adaptando a los distintos contextos de interacción y
que vayan mejorando la calidad de sus respuestas.
La IA, aun cuando tiene elementos mecánicos, realiza una serie de
procesos “internos en los que el ser humano ya no puede intervenir y
que convierten sus resultados en algo, en apariencia, no del todo prede-
cible (algo que va incluso más allá del diseño o la arquitectura de las má-
quinas y los algoritmos probabilísticos que las gobiernan). En esto tiene
que ver también su fuerza computacional. Los seres humanos dedicados
a la tecnología se han esforzado por digitalizar la realidad, reduciéndola
a datos almacenables.
Por ello el segundo aspecto que caracteriza a la IA es su capaci-
dad de cómputo. Los científicos de datos afinan de una forma estricta y
eficiente sus algoritmos con la intención de producir síntesis de altísima
calidad de esa cantidad ingente de información digitalizada en tiempos
cada vez más breves y con mayor acierto en cuanto a las posibilidades
326
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
a disposición. Así, si ya la respuesta automática de una IA puede causar
sorpresa, la calidad del resultado puede deslumbrar o causar un profundo
desconcierto cuando aborda preguntas propiamente humanas. Se trata de
sensaciones que quizá ya muchos hayan experimentado al tratar de cerca
con las posibilidades de estos sistemas.
El tercer aspecto específico de esta tecnología está en el vehículo
que usan para mostrar sus resultados. La IA se ha programado por vía de
la matematización de la lógica para que pueda responder humanamente
con acciones como el lenguaje y el arte (música, pintura, literatura). En
el fondo, se ha logrado disfrazar los procesos tecnológicos en su com-
plejidad con algunos aspectos esenciales de la humanidad. De ahí que
aparezca como algo con lo que se puede establecer una ida y vuelta, una
entrada (input) y salida (output) de información que emula muy bien el
proceso comunicativo humano (hecho que engañaría a Turing y a varios
incautos más). De esta forma, la IA entra en la vida del ser humano como
algo capaz de intervenir en su propia narrativa sociocultural y que tiene la
razonabilidad misma del mundo, en cuanto puede ser digitalizable, como
horizonte abierto de su actividad.
Para algunos, estas distinciones podrían quedarse cortas, pero para
otros es la posibilidad de convertir la racionalidad del mundo en una ra-
cionalidad computacional. Todo son datos. Así, resulta posible volar
miles de aviones al mismo tiempo y reducir accidentes, permitir que en-
fermos traten sus sufrimientos con éxito, identificar personas en actos
delictivos, hacer eficientes estrategias de marketing y comercio, encontrar
monumentos perdidos y convertir bases de datos de juicios legales, médi-
cos, psicológicos o políticos en opiniones objetivas y estructuradas por
vía algorítmica. La magnitud de estas actividades hace que no sea raro
que se asocie esta herramienta a “la búsqueda y consecución del poder”
(Niño et al., 2024, p. 251).
Parece claro que los términos en un sentido empiezan a quedarse
cortos y, por eso, algunos conceptos como inteligencia, aprendizaje, ética,
artificial, síntesis, lenguaje, ontología, libertad… empiezan a ser confusos
y a empobrecer la realidad. Esto plantea una pregunta esencial: frente a
la especificidad de este tipo de obra tecnológica ¿es necesario acuñar una
nueva terminología que permita distinguir las cosas para que unas no
pasen por otras?
327
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
Un nuevo léxico para la tecnología
Resulta relevante preguntarse si frente a la novedad de la IA es necesario
plantear nuevas categorías. Inicialmente, hay que decir que la pregunta
es importante al menos por dos razones. En primer lugar, porque este
problema ha surgido también frente a la conciencia ambiental y el cui-
dado de los animales: la idea de que el animal tiene una especificidad
de cara a lo humano y que de su comprensión puede surgir un modo
responsable de aproximarse al mundo natural y establecer ciertos límites
a la acción incontrolada humana. Este asunto también tiene un correlato
antropológico fundamental, dado que depredar el mundo natural es para
el ser humano depredarse a sí mismo. En el caso de la IA no se trataría
de crear una ética de las IA como pretenden algunos transhumanistas
como Bostrom (2011), sino de una ética para las IA como plantea Benanti
(2022). En segundo lugar, que esta nueva terminología permitiría distin-
guir lo propiamente humano de lo tecnológico (Ocampo Ponce, 2024).
Sadin (2020) es enérgico en denunciar que los movimientos tecnológicos
han tomado prestado un léxico filosófico completo del registro de las
ciencias cognitivas sin vergüenza alguna ni preocupación por la preci-
sión terminológica (p. 19). Un claro ejemplo es el uso de palabras como
“inteligencia artificial, aprendizaje de las máquinas (machine learning),
aprendizaje profundo (Deep learning) u ontologías web. En estos casos,
se habla de inteligencia, aprendizaje y ontología, y se denomina con ello a
mecanismos que no se parecen a lo que referencian. Si en algún caso hay
alguna similitud, es claro filosóficamente que es mayor su desemejanza.
A pesar de esto, habría que reconocer que, si bien estas discrimi-
naciones podrían ayudar a defender la dignidad humana y ciertos abusos
del marketing de las compañías tecnológicas y de la propaganda política,
se está dejando de lado el simple hecho que es el ser humano quien orde-
na epistemológicamente el mundo y que, sin duda, existe una parentela
ontológica, tanto con aquel natural como con la obra producida. Así, la
propuesta es igual de simple y de sentido común, recuperar la reflexión
en torno al ser humano como princeps analogatum. Se trata de volver la
mirada sobre el hecho que la IA no es la evolución de la inteligencia hu-
mana, sino simplemente su aspecto más ligado al cálculo, al parámetro y
al discurrir de la razón.
De esta forma, se proponen dos caminos bastante convenientes
para el ser humano y para la filosofía que se ocupa de estos asuntos. Uno,
no dejar de reflexionar en torno a los aspectos fundamentales de la exis-
tencia humana y, especialmente, alrededor de la pregunta ¿quién es el ser
328
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
humano? Dos, reconocer que frente a la naturaleza y frente a la obra, es
en el ser humano en quien hay que profundizar para comprender mejor
la realidad que lo circunda y la responsabilidad que tiene por aquello que
realiza en el mundo. La razón lógica de este ejercicio de responsabilidad
es que, hasta donde se tiene registro, el ser humano es el único capaz de
pensarse y pensar el cosmos. Si se encuentran estas analogías en los ani-
males y en las máquinas es porque, en el primer caso, es el ser humano
quien reconoce en ellos una relación de semejanza e intenta poner nom-
bre a su comportamiento y, en el segundo, porque es quien diseña las má-
quinas como una forma de ayuda a la perfección de su acción y actividad
en el mundo. Cuando se propone revertir la analogía, es exactamente esto
a lo que se refiere.
Parece cada vez más claro que la cuestión de la responsabilidad hu-
mana propone un enorme desafío. Se puede pensar en la dificultad para
arbitrar la cuestión en torno a quién debería ser el responsable de los resul-
tados que ofrecen las IA. Esto es porque no se experimenta la relación con
la IA como un evento continuo que surge del ejercicio de la libertad. En
realidad, el ingeniero y los usuarios directos e indirectos, así como el mis-
mo algoritmo, son imputables solo en parte (extendiendo nuevamente
el lenguaje en este último caso). La responsabilidad, que es una prerro-
gativa personal, aparece fragmentada frente a la IA. Por un lado, porque
el usuario no tiene cómo intervenir en los sesgos de una IA y porque el
algoritmo sintetiza información que tiene una diversidad de autores —de
ahí que el crédito de la obra no pueda ser atribuible solo a quien redacta un
comando de elaboración (prompt)7—. Por otro, porque la ausencia de con-
secuencias aparentes en la realidad, más allá de la virtualidad, erosionan el
influjo moderador de la ética en los usuarios. Asaltar un banco con un par
de comandos, por ejemplo, puede parecer un juego y las consecuencias en
personas e instituciones afectadas apenas visibles.
Por esta razón resulta importante plantearse la forma de pensar
una responsabilidad compartida sin diluir aquella personal. Seguramen-
te, como reflexionan algunos, esto debería dar un impulso al hecho que
es cada vez más necesario que las instituciones tengan rostros humanos y
que las decisiones sean trazables en ellas y en los algoritmos. Pero esto es
un asunto que se debe discutir mucho más públicamente.
Así, regresando sobre la cuestión ontológica y lingüística, al pare-
cer, hoy resulta de capital importancia volver la mirada sobre la antropo-
logía y tratar que en los distintos ámbitos en los que el hombre despliega
sus acciones (como el interpersonal, educativo, laboral, económico o po-
lítico) se pueda siempre reconocer su dignidad y la tarea de responsabi-
329
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
lidad que implica su inteligencia. No parece una buena opción que el ser
humano se disuelva en su obra por inseguridad frente a sus propias vul-
nerabilidades o por ansias de un poder sumamente engañoso. Esto no ex-
cluye que resulte conveniente, en algunos sectores de la realidad, acuñar
ciertos términos que puedan ser aceptados por la comunidad científica y
académica para que se hable con mayor propiedad de este fenómeno que
aún se debe comprender mejor en sus posibilidades y riesgos. Se pueden
proponer algunos conceptos como “productores informáticos, compila-
ción de datos o posicionamientos en la web, los cuales se parecen más a
la realidad cibernética y sustraen menos realidad a nociones como inte-
ligencia, aprendizaje u ontología, respectivamente. Hay que insistir que
esto es un asunto que se debe discutir pública y abiertamente en distintos
foros con la intención que la población tome consciencia de las diferen-
cias y auténticas semejanzas. Un claro ejemplo es lo que ha ocurrido en la
Comisión Europea, donde se ha intentado plantear una perspectiva hu-
manocéntrica para abordar el problema de una IA confiable (Terrones
Rodríguez & Roche Berardi, 2024, p. 222). Sin embargo, en el caso del
presente trabajo solo se intenta señalar algunos ejemplos para mostrar
el asunto y, en lo que pueda ser de ayuda, eliminar un poco el terror que
pueda causar la ignorancia sobre ellos.
Como planteaba Romano Guardini (1982, p. 121), frente a la tec-
nología no hay que capitular. Al contrario, siendo una obra que surge del
consorcio de las potencias humanas más nobles, supone un mayor esfuer-
zo y disciplina para que el ser humano crezca a través de ellas en vez de
diluirse. El ejercicio de responsabilidad de aquellos sujetos humanos más
formados es fundamental, pues es un atentado contra la dignidad huma-
na que las inteligencias humanas sean la materia prima de aquellas arti-
ficiales, como el hierro o la madera lo fueron de las grandes fábricas. Por
ello, quizá sea sano limitar el ejercicio de algo para lo que no se está ma-
duro y que parece requerir conciencias maduras (Perezchica et al., 2024).
Esta resulta la manera de revertir la analogía, es decir, a partir de
la conciencia recta de sí que no tiene miedo de las propias vulnerabilida-
des y reconoce con responsabilidad las propias capacidades. Anclar la re-
flexión en una sana antropología impide que el ser humano se conforme
o identifique erróneamente con su obra y pueda ver en ella el real reflejo
de una perfección que lo hace sentir contemporáneamente vulnerable y
más capaz. Esa posición media o virtuosa es difícil de conseguir, la mayo-
ría de las veces incluso es impopular y en su deformación, como describe
el filósofo y psiquiatra omas Fuchs (2023, p. 543), recuerda en todas sus
líneas la tragedia de narciso. La historia de un hombre enamorado de su
330
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
propia imagen que poco a poco se pierde a sí mismo y, encandilado por
sus deseos, muere en los brazos de su figura espectral: la IA.
Conclusiones
Se ha tratado de mostrar la complejidad de la realidad y la reflexión de la
inteligencia humana, un asunto que se mantiene abierto y que no parece
posible que pueda ser reductible al cálculo algorítmico o a datos alma-
cenados, como se pretende a través de la IA. Como se ha mencionado, la
inteligencia humana supone una enorme complejidad que no puede ser
reproducida o emulada simplemente a través del cálculo probabilístico.
Pero, además, las nuevas tecnologías computacionales son realidades que
mezclan ciertos aspectos cognitivos con otros materiales que tienen su
propia especificidad como obra humana. En ese sentido, no son meras ex-
tensiones que cumplen tareas o generan deleite, sino que se ubican entre
lo humano y lo mecánico.
En este caso, es precisamente el aspecto humano de la IA lo que ne-
cesita ser evaluado continuamente. No es de esperar que ciertas distopías
tecnológicas se realicen, como aquella que plantea que la conjunción en-
tre la robótica y la racionalidad computacional pueda generar humanoi-
des que se salgan de control e intenten acabar o aminorar la vida humana
(salvo que así lo programemos). Es cierto que, desde sus inicios, la IA fue
impulsada por el deseo de reproducir la conciencia humana a través de
la fuerza de la tecnología. Este deseo, como reconocen varios pensadores
contemporáneos, parece cada vez más claro que es irrealizable, aunque
no está dicho que nuevas tecnologías puedan despertar en el futuro este
vetusto impulso creador. Por eso, de lo que se trata es más bien de eva-
luar la orientación marcadamente antropomórfica de estas tecnologías y
el enorme impacto que empiezan a tener en los distintos ámbitos de la
vida humana. Como decía Sadin (2020), se plantea un cambio de época
a través de la digitalización de la vida. Los seres humanos empiezan a
buscar la verdad, la amistad, la diversión, el amor y las certezas por vía de
los algoritmos. Por ello, la nueva realidad espectral de la tecnología pue-
de poner en riesgo aspectos humanos esenciales ligados a las relaciones
interpersonales, el auténtico aprendizaje, la configuración de la ciencia
y, en general, de los distintos estratos de la sociedad que toman parte en
este asunto (Estados, instituciones, universidades, entidades económicas
y usuarios en general).
331
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
Esta responsabilidad está, en primer lugar, en devolver la concien-
cia al ser humano que la IA es una obra que ha salido de sus manos y que
se nutre de su ingenio y capacidad. El ser humano debe hacerse cargo de
ella con conciencia madura. No debe creer, ni que está jugando a ser dios,
ni que lo que ha producido es una humillación para su vida. Por eso no es
banal volver la mirada sobre el lenguaje como un modo de abordar este
asunto en su configuración común y de reconocer que es necesario ha-
blar con claridad para evitar confusiones y reducciones que terminan por
atentar contra la dignidad humana. En consecuencia, revertir la analogía
es una forma de regresar la mirada sobre la antropología, con intención
de evitar algunos errores totalitarios del pasado que son, por supuesto, la
crónica de una muerte anunciada.
Notas
1 Hemos encontrado una buena síntesis de esta discusión en Volpato Dutra y De
Góes (2024, pp. 2-5).
2 Se pueden mencionar algunos como san Gregorio de Niza, san Agustín, santo To-
más de Aquino, Pascal, Descartes y algunos contemporáneos como Romano Guar-
dini, Paul Landsberg, Edith Stein o Karol Wojtyla.
3 Recomendamos la excelente síntesis presentada en el trabajo de Murillo (2024).
4 A pesar de que las neurociencias se reconozcan inicialmente como experimentales,
es frecuente que los neurocientíficos estructuren sus hallazgos en modo filosófico.
En ese sentido, los aspectos teóricos son repetidos en algunos grandes autores de
esta disciplina experimental. Proponemos los ejemplos paradigmáticos de Kandel
(2019), Gazzaniga (2019), Aguado (2019) y Damasio (2022).
5 Sin intentar reducir el asunto a unas cuantas anotaciones filosóficas, me encuentro
en la línea que presenta Guardini (1982) sobre este asunto, cuando dice que en
el mundo cristiano el elemento racional, instintivo y el contemplativo-creador se
encuentra aproximadamente en equilibrio en la manera como el hombre entiende
la naturaleza, se comporta frente a ella, la utiliza y configura. El hombre se apodera
de lo dado, intensifica sus formas, aumenta sus efectos, pero esencialmente y en
conjunto, no quebranta su estructura (p. 50).
6 Algunos mecanicistas más fuertes, siguiendo a Descartes, piensan que los animales
están incluidos en esta visión y otros materialistas contemporáneos, por vía del
conductismo, incluyen también a los seres humanos.
7 El caso artístico se ha discutido mucho en el último tiempo en referencia a la IA, al-
gunos consideran su actividad fundamentalmente un plagio (Marburger, 2024, p. 5).
332
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
Bibliografía
AGUADO, Luis
2019 Cuando la mente encontró a su cerebro. Madrid: Alianza.
AGUSTÍN DE HIPONA
2019 Las confesiones. Madrid: Alianza.
ARANA, Juan
2015 La conciencia inexplicada: ensayo sobre los límites de la comprensión natura-
lista de la mente. Madrid: Biblioteca Nueva.
ARÃO, Cristian
2024 Behind Artificial Intelligence: An Analysis of the Epistemological Bases of
Machine Learning. Trans/Form/Acao, 47(3). https://doi.org/10.1590/0101-
3173.2024.v47.n3.e02400163
ARENDT, Hannah
2005 La condición humana. Barcelona: Paidós.
ARISTÓTELES
1978 Acerca del alma. Madrid: Gredos.
1994 Metafísica. Madrid: Gredos.
BARRIOS, Hernando,AZ, Vianney, & GUERRA, Yolanda
2020 Subjetividades e inteligencia artificial: desafíos para “lo humano. Veritas,
(47), 81-107. http://dx.doi.org/10.4067/S0718-92732020000300081
BENANTI, Paolo
2022 Human in the Loop. Decisioni Umane e Intelligenze Articiali. Milán: Mon-
dadori.
BLANCO, Carlos, & GARRIDO, Eduardo
2024 ¿Entienden los sistemas de inteligencia artificial? Claridades, 16(1), 171-205.
https://doi.org/10.24310/crf.16.1.2024.16441
BOSTROM, Nick
2011 e Ethics of Artificial Intelligence. En W. Ramsey, & K. Frankish (eds.),
Cambridge Handbook of Articial Intelligence. Cambridge University Press.
CHANGEUX, Jean-Pierre
2005 El hombre de verdad. México DF: FCE.
DAMASIO, Antonio
2022 Sentir y saber: el camino de la conciencia. Barcelona: Ariel.
DESCARTES, René
1991 Tratado del hombre. Madrid: Alianza.
DI NISSA, Gregorio
2000 L’u o m o . Roma: Città Nuova.
FRANCK, Juan
2018 ¿Somos o no somos nuestro cerebro? Ensayo losóco. Buenos Aires: Logos.
FUCHS, omas
2023 Encarnación y relación: para un humanismo contemporáneo. Investigacio-
nes Fenomenológicas, (20), 539-54. https://doi.org/10.5944/rif.20.2023.38929
GAZZANIGA, Michael
2019 El instinto de la conciencia. Barcelona: Paidós.
GILBERT, Paul
2008 Metafísica: la paciencia del ser. Madrid: Sígueme.
333
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
GONZÁLEZ CUENCA, David
2021 Deux ex machina: la inteligencia artificial en el futuro del ser humano. Cua-
dernos Salmantinos de Filosofía, 48, 141-56. https://bit.ly/3Tr865Q
GONZÁLVEZ-PÉREZ, Vincent & CORTIJO-RUIZ, Gemma
2023 Desarrollo humano y redes sociales en sociedades digitales, Sophia, Colec-
ción de Filosofía de la Educación, (34), 41-64. https://doi.org/10.17163/soph.
n34.2023.01
GUARDINI, Romano
1982 El poder. Madrid: Cristiandad.
KANDEL, Eric
2019 La nueva biología de la mente, ¿qué nos dicen los trastornos cerebrales sobre
nosotros mismos? Barcelona: Paidós.
KHASAWNEH, Asma Jadallah, MIHUS, Iryna, SVYRYDIUK, Nataliia, & ZHYVKO,
Zinaida
2024 Naturaleza y finalidad de la inteligencia artificial: retos políticos, jurídi-
cos y económicos en el siglo XXI. Clio, Revista de Historia, Ciencias Hu-
manas y Pensamiento Crítico, 4(8), 306-320. https://doi.org/10.5281/zeno-
do.12600350
KARASINSKI, Murilo, & BIROLO, Kleber Bez
2022 Inteligência Artificial e os Riscos Existenciais Reais: Uma Análise das Li-
mitações Humanas de Controle. Filosoa Unisinos, 23(3), 1-12. https://doi.
org/10.4013/fsu.2022.233.07
KURZWEIL, Ray
2005 e Singularity Is near: When Humans Trascend. Nueva York: Viking.
LANDSBERG, Paul
2006 Problemas del personalismo. Madrid: Fundación Emmanuel Mounier.
2016 Iglesia y paganismo. En VV. AA., El misterio de la persona: reexiones antro-
pológicas en la senda del Concilio Vaticano II (pp. 315-332). Arequipa: Uni-
versidad Católica San Pablo.
MARBURGER, Marcel René
2024 Artistic Intelligence vs. Artificial Intelligence. Artnodes, (34), 1-7. https://doi.
org/10.7238/artnodes.v0i34.425712
MCCULLOCH, Warren, & PITTS, Walter
1990 A Logical Calculus of the Immanent in Nervous Activity. Bulletin of Mathe-
matical Biology, 5, 115-133. https://doi.org/10.1007/BF02478259
MURILLO, José Ignacio
2024 Cognición humana: viviente corpóreo, inteligencia espiritual y condición
personal. En J. D. Quiceno Osorio (coord.), Persona y conocimiento (pp. 15-
32). Arequipa: Universidad Católica San Pablo.
NIÑO MORALES, Elkin Eduardo, CABEZA HERRERA, Oscar Javier, & FLÓREZ PA-
BÓN, Campo Elías
2024 Psicopolítica y big data como nuevas formas y herramientas para la organi-
zación política. Sophia, Colección de Filosofía de la Educación, (36), 247-273.
https://doi.org/10.17163/soph.n36.2024.08
OCAMPO PONCE, Manuel
2024 Algunos fundamentos de la filosofía realista de Santo Tomás de Aquino para
una valoración de la inteligencia artificial (IA). Perseitas, 12, 72-92. https://
doi.org/10.21501/23461780.4724
334
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
La inteligencia articial y el riesgo de una analogía invertida
Articial Intelligence and the Risk of an Inverted Analogy
PASCAL, Blaise
1986 Pensamientos. Barcelona: Planeta.
PÉREZ MARCOS, Moisés
2023 ¿Qué es la neuroteología? Sevilla: Senderos.
PEREZCHICA, José Eduardo, SEPÚLVEDA, Jesuán Adalberto, & ROMÁN, Alan David
2024 Inteligencia artificial generativa en la educación superior: usos y opiniones
de los profesores. European Public and Social Innovation Review, 9, 1-20.
https://doi.org/10.31637/epsir-2024-593
PLATÓN
1872 Timeo. Madrid: Fundación Gustavo Bueno.
1988 República. Madrid: Gredos.
2018 Apología de Sócrates. Menón. Crátilo. Madrid: Alianza.
QUICENO, Juan David, & MORALES, Isabel
2024 Del cogito herido a la persona humana: rehaciendo los pasos de la antropolo-
gía de Paul Ricoeur. Madrid: Dykinson.
RICOEUR, Paul
2006 Sí mismo como otro. Madrid: Siglo XXI.
2013 Ser, esencia y sustancia en Plan y Aristóteles. México DF: Siglo XXI.
RODRÍGUEZ VALLS, Francisco
2015 El sujeto emocional. la función de las emociones en la vida humana. Sevilla:
émata.
SADIN, Éric
2017 La humanidad aumentada: la administración digital del mundo. Buenos Ai-
res: Caja Negra.
2020 La inteligencia articial o el desafío del siglo: anatomía de un antihumanismo
radical. Buenos Aires: Caja Negra.
SEARLE, John
1980 Minds, Brains, and Programs. Behavioral and Brain Sciences, 3(3), 417-24.
https://doi.org/10.1017/S0140525X00005756
SERRETTI, Massimo
2008 Luomo è Persona. Vaticano: Lateran University Press.
SOLER, Francisco & LÓPEZ, Martín
2005 ¿Dios o la materia? Barcelona: Áltera.
SPAEMANN, Robert
2010 Personas: acerca de la distinción entre “algo” y “alguien. Pamplona: EUNSA.
STEIN, Edith
2020 La estructura de la persona humana. Madrid: BAC.
TERRONES RODRÍGUEZ, Antonio Luis & ROCHA BERARDI, Mariana
2024 El valor de la ética aplicada en los estudios de ingeniería en un horizonte de
inteligencia artificial confiable. Sophia, Colección de Filosofía de la Educa-
ción, (36), 221-245. https://doi.org/10.17163/soph.n36.2024.07
TOMÁS DE AQUINO
2007 Suma Contra Gentiles. Madrid: BAC.
VOLPATO DUTRA, Delamar José, & DE GÓES BRENNAND, Edna Gusmão
2024 Intelligence and Philosophy: Between New and Old Artificial Crossroads.
Filosoa Unisinos, 25(1), 1-15. doi: 10.4013/fsu.2024.251.08.
WIENER, Norbert
1988 Cibernética y sociedad. Buenos Aires: Sudamericana.
335
Sophia 39: 2025.
© Universidad Politécnica Salesiana del Ecuador
ISSN impreso:1390-3861 / ISSN electrónico: 1390-8626, pp. 315-335.
J D Q O
Financiamiento
El artículo surge como parte del Proyecto Del sujeto algorítmico a
la persona responsable, financiado con fondos del concurso Fomento de
la Investigación Universidad Católica San Pablo (UCSP) 2024.
Declaración de Autoría - Taxonomía CRediT
Autor/es Contribuciones
Juan David Quiceno Osorio
Al tratarse de autoría única, la contribución
total corresponde al mismo autor. El conte-
nido presentado en el artículo es de exclusiva
responsabilidad del autor.
Declaración de uso de inteligencia articial
Juan David Quiceno Osorio, DECLARA que la elaboración del artículo titulado “La
inteligencia artificial y el riesgo de una analogía invertida, no contó con el apoyo de
inteligencia artificial (IA)
Fecha de recepción: 24 de octubre de 2024
Fecha de revisión: 20 de diciembre de 2024
Fecha de aprobación: 20 de abril de 2025
Fecha de publicación: 15 de julio de 2025