La Inteligencia Artificial desde la filosofía
La
Inteligencia Artificial desde la filosofía
La Inteligencia Artificial – en adelante, IA – ha sido una fuente de
fascinación para los filósofos desde los primeros días de la informática. La IA
se define como la capacidad de una máquina para aprender y actuar de manera
inteligente, y se ha vuelto cada vez más importante a medida que avanza la
tecnología.
Los filósofos han debatido durante mucho tiempo sobre las
implicaciones de la IA para la vida humana y cómo se puede utilizar para
mejorar nuestras vidas.
En este documento, exploraremos las implicaciones filosóficas de la
IA desde varias perspectivas, como la ética, la filosofía de la mente, la
epistemología, la metafísica y más. También consideraremos algunos posibles
casos de uso de la IA en nuestra sociedad actual. Finalmente, discutiremos
algunos desafíos potenciales que pueden surgir con un mayor uso de la IA en
nuestras vidas.
La filosofía de la IA intenta responder a las siguientes preguntas:
¿Puede una máquina
actuar inteligentemente?
¿Puede resolver
cualquier problema que una persona resolvería pensando?
¿Son la
inteligencia humana y la inteligencia de la máquina lo mismo?
¿Es el cerebro
humano esencialmente una computadora?
¿Puede una máquina
tener una mente, estados mentales y conciencia de la misma manera que un ser
humano puede?
¿Puede sentir como
son las cosas?
¿Dicha
inteligencia tendría una línea de progreso?
Estas preguntas reflejan los intereses divergentes de los
investigadores de IA, lingüistas, científicos cognitivos y filósofos,
respectivamente. Las respuestas científicas a estas preguntas dependen de la
definición de <<inteligencia>> y de <<conciencia>>
y exactamente que <<maquinas>>.
Las proposiciones importantes en la filosofía de la IA incluyen:
La <<convención cortés>> de Turing: si una maquina se
comporta tan inteligentemente como un ser humano, entonces es tan inteligente
como un ser humano.
La propuesta de Dartmouth: <<Todos los aspectos del
aprendizaje o cualquier otra característica de la inteligencia pueden
describirse de manera tan precisa que se puede crear una máquina para
simularla>>.
Hipótesis del sistema de símbolos físicos de Newell y Simon:
<<Un sistema de símbolos físicos tiene los medios necesarios y
suficientes para una acción inteligente general>>.
La solida hipótesis de IA de Searle: <<La computadora
debidamente programada con las entradas y salidas correctas tendría una mente
exactamente igual que los seres humanos>>.
El mecanismo de Hobbes: <<Por ‘razón’… no es más que ‘cálculo’,
es decir, sumar y restar, de las consecuencias de los nombres generales
acordados para ‘marcar’ y ‘significar’ nuestros pensamientos…>>
Para introducirse en el área de la IA, se deben conocer conceptos
básicos sobre lo que es la inteligencia o cómo se puede entender la
inteligencia y los diversos tipos de inteligencia que se conocen. La palabra
inteligencia tiene su origen en la palabra latina intelligentia, que surge
de inteligere. Esta palabra se compone por dos términos: intus (“entere”)
y legere (“escoger”). Desde el origen etimológico de la palabra el
concepto de inteligencia hace referencia a quien sabe escoger; la inteligencia
permite seleccionar las mejores opciones para solucionar una cuestión.
También se puede
definir inteligencia como la capacidad o facultad de entender, razonar, saber,
aprender y de resolver problemas. Se asemeja a conceptos como ‘entendimiento’ e
‘intelecto’. Desde la Psicología, la inteligencia es la capacidad cognitiva y
el conjunto de funciones cognitivas como la memoria, la asociación y la razón.
Pero, con todo lo mencionado anteriormente me surgen un par preguntas
¿Puede el ser humano “crear” algo que nos iguale en nuestra capacidad de
razonar? Y ¿puede esta inteligencia creada por el ser humano superar las
capacidades humanas en el momento de razonar?
¿Qué es la IA? ¿Cómo surge?
Pareciera que la IA es un tema reciente, pero lo que es cierto, es
que este un tema que tiene su historia y todo un proceso que se empezó a
desarrollar en el año de 1943 con la publicación del articulo: A Logical
Calculus of Ideas in Nervous Activity <<Un Cálculo Lógico de Ideas en
la Actividad Nerviosa>>, de Warren McCullough y Walter Pitts. En este
artículo, los científicos dieron a conocer el primer modelo matemático para la
creación de una red neuronal.
Este es el punto de partida para el estudio y desarrollo de la IA. Con
los avances de las investigaciones en 1950, dos estudiantes de Harvard: Marvin
Minsky y Dean Edmonds, crean el Snarc, el primer ordenador de red neuronal, ese
mismo año se publica el Test de Turing, escrito por Alan Turing, que sigue
vigente actualmente y es utilizado para valorar las IA.
¿Presenta la IA algún peligro para el ser
humano en cuanto a su trabajo y su desarrollo personal?
La IA nos presenta muchas posibilidades para la humanidad, pero
también podría ser una amenaza peligrosa, algunos piensan que esta tecnología
podría ser más peligrosa que la bomba nuclear.
Se tiene un cierto temor a que pueda suceder algo como una película de
ciencia ficción, donde la IA en su capacidad de aprender y evolucionar de forma
autónoma en algún momento se decida “revelarse” contra sus creadores.
Como se menciona esta posibilidad de que suceda esta revelación genera
el temor en la sociedad, también se considera una posibilidad muy real.
Expertos como Stephen Hawking, Elon Musk o Bill Gates dieron su punto de vista
respecto a la IA.
Ellos coinciden en que, la IA representa una situación de alto
riesgo e inevitable para los próximos años. Por eso lanzan una voz alarma para
los gobiernos para que regulen este campo para que se desarrolle de forma ética
y segura. Además de ellos más expertos han pedido a las Naciones Unidas que
prohíba los <<robots asesinos>> y además otras armas
militares autónomas.
A como también hay otra posición de otros expertos en esta área es
que la IA y su futuro depende únicamente del uso que la humanidad decida darle.
Y en este punto es donde se puede hablar un poco de historia general y otros
aportes importes que ha recibido la humanidad en otras ciencias, y que en sus
orígenes no era buscar el mal uso, sino que existen personas que la utilizan
para buscar para bienes propios (poder político – social).
Como lo fue la formulación de la ecuación E=mc2, de Albert
Einstein en 1905, donde se da el descubrimiento de la energía nuclear, y más
adelante se utiliza en la bomba nuclear donde este gran aporte de la ciencia a
la humanidad es la misma humanidad la que le da un mal uso y se ataca a la
misma humanidad buscando la máxima autoridad de unos sobre otros y no una sana
relación.
En este momento se puede entrar al tema de la ética y moral que
rigen o deberían regir a la IA para evitar situaciones que atenten contra la
humanidad. Estas situaciones en contra de la humanidad no solo se pueden dar en
problemas bélicos sino, también situaciones políticas.
En abril de 2018 se celebraron elecciones municipales en un distrito
de Tokio con más de 150.000 habitantes, llamado Tama New Town. Entre los
candidatos se presentó un robot androide, con rasgos femeninos, Michihito Matsuda,
quien << ¿podemos decir “quién”?)>>
quedó de tercera en la segunda vuelta con 4.013 votos. Michihito había
prometido acabar con la corrupción y ofrecer oportunidades justas y
equilibradas para todos, y su propuesta había generado una elevada aceptación[1].
Según Michihito, el algoritmo, mediante el Machine learning, podría
sustituir las debilidades emocionales de los seres humanos, causa de malas
decisiones políticas, corrupción, nepotismo y conflictos, por un análisis
objetivo de los datos generados acerca de las opiniones, expectativas,
preferencias y costumbres de la ciudadanía[2].
La dra. Adela Cortina Orts, quien tiene importantes aportes en el
campo de la ética y la filosofía aplicada dice en su artículo, Ética de la
Inteligencia Artificial, que se puede hablar de tres tipos de IA y de su
posible correspondiente ética.
I.
La inteligencia superior
o superinteligencia se refiere a una forma de
inteligencia que supera la capacidad humana y plantea la posibilidad de que las
máquinas puedan reemplazar a los seres humanos. Esta idea está relacionada con
el transhumanismo y el posthumanismo, y con la noción de
"singularidad", que sugiere un cambio radical en la historia de la
humanidad debido al avance de la tecnología y la inteligencia artificial.
Se mencionan varios
pensadores y defensores de esta idea, como John von Neumann, quien fue uno de
los primeros en reconocer el potencial de la computación, y Raymond Kurzweil,
quien propone que los humanos trasciendan su forma biológica y transfieran su
inteligencia a las máquinas. Se menciona también la fundación de la Singularity
University en 2008, que busca preparar a la humanidad para un cambio acelerado
en la tecnología.
Se reconoce que hay
discrepancias en el campo de la IA en cuanto a si estas predicciones del
transhumanismo y el posthumanismo se cumplirán científicamente. Algunos creen
que se logrará crear superinteligencias artificiales en este siglo, mientras
que otros sostienen que no hay suficiente base científica para afirmarlo. Sin
embargo, independientemente de si esto se logra o no, se plantean cuestiones
éticas importantes que deben abordarse.
Uno de los puntos de
debate ético es si es un deber moral buscar la creación de seres superiores que
puedan plantear problemas de convivencia con los seres humanos. Además, se
plantea la preocupación de qué ética tendrían estas superinteligencias, ya que
podrían desarrollar sus propios valores y actuar de acuerdo con ellos, lo que
estaría más allá del control humano.
En contraposición a
invertir recursos en la construcción de seres superiores, se plantea la
pregunta de si no sería más ético utilizar la inteligencia artificial para
resolver problemas urgentes como la guerra, la pobreza, la discriminación y la
injusticia.
II. Inteligencia general, es la capacidad de
resolver problemas de manera general, y es típicamente humana. Es el objetivo
de la IA desarrollar máquinas que tengan una inteligencia general similar a la
humana.
Se menciona la
distinción hecha por John Searle en 1980 entre IA fuerte y débil. La IA fuerte
implica que una computadora es una mente capaz de pensar como un ser humano,
pero Searle argumenta que esto es imposible porque las máquinas carecen de la
intencionalidad que los humanos atribuimos a las cosas que nos rodean. Searle
sostiene que una máquina no puede comprender el significado de los símbolos que
maneja y que no puede haber inteligencia general sin un cuerpo.
Se destaca la
importancia del cuerpo humano en la capacidad de dar sentido común a nuestro
entorno, comprender e interpretar desde contextos concretos, contar con
valores, emociones y sentimientos, y tomar decisiones desde ese punto de vista
ético. Se plantea la pregunta de si es posible dotar de sentido común a las
máquinas, incluso si no tienen un cuerpo humano. Aunque se invierte una gran
cantidad de financiamiento en esta área, hasta ahora no parece haberse logrado.
En caso de que fuera
posible crear sistemas inteligentes con inteligencia general similar a la
humana, surgen preguntas sobre si deberíamos reconocerles autonomía,
considerarlos personas con dignidad y responsabilidad, y si deberían tener
derechos y deberes. También se plantea si se debiese tratar a estas máquinas
con respeto y compasión, e incluso considerarlas ciudadanas del mundo político.
Sin embargo, se
concluye que por el momento esto parece altamente improbable, no solo porque no
se ha logrado, sino también porque cualquier simulación de intencionalidad,
emociones, valores y sentido común en las máquinas sería solo eso, una simulación.
Para experimentar verdaderos sentimientos, se requiere un cuerpo.
III. Inteligencia especial, se refiere a la
capacidad de los sistemas inteligentes para llevar a cabo tareas específicas de
manera superior a la inteligencia humana. Esto se debe a su capacidad para
procesar una gran cantidad de datos y utilizar algoritmos sofisticados. Este
tipo de inteligencia especial ha estado presente desde 1958 en diversos
ámbitos.
Se menciona el caso
famoso de la supercomputadora de IBM, Deep Blue, que jugó al ajedrez contra el
campeón mundial Gary Kasparov en 1996 y 1997. En 1996, Kasparov ganó, pero en
1997, Deep Blue había aprendido de sus errores y derrotó a Kasparov. Esto causó
gran revuelo, ya que el sistema inteligente fue capaz de realizar la tarea de
jugar ajedrez contando con una gran cantidad de datos y una capacidad de
correlación superior a la de los seres humanos.
Se destacan diversas
áreas en las que se están abordando problemas utilizando algoritmos eficientes,
como el sector de la salud, la predicción climatológica, la productividad
empresarial, la comunicación, el ocio, la planificación del tiempo, el ahorro
de costes, el asesoramiento crediticio, el reconocimiento de voz, la lectura de
textos y el asesoramiento en el ámbito agrícola. Se menciona la minería de
datos como un proceso de búsqueda sistemática de patrones en grandes conjuntos
de datos, que se utiliza tanto en la investigación científica como en el mundo
empresarial.
Sin embargo, se enfatiza
que, en todos estos casos, el elemento directivo sigue siendo la persona humana
que utiliza la potencia de los sistemas inteligentes para procesar y analizar
grandes cantidades de datos, incluso para aprender de sus
"experiencias". En la actualidad, no se trata de una ética de los
sistemas inteligentes en sí, sino de cómo orientar el uso humano de estos
sistemas de manera ética.
La dra. Adela Cortina Orts ofrece en este mismo articulo ofrece un
marco ético para la IA expuestos en cuatro puntos específicos los cuales son
I.
Autonomía y dignidad, el término "autonomía" solo puede aplicarse a los seres
humanos, ya que implica la capacidad de autolegislarse y autodeterminarse. Esta
capacidad está ligada al reconocimiento de la dignidad de las personas y es el
núcleo de las orientaciones éticas. Se enfatiza que los sistemas llamados
"autónomos" en realidad son artefactos o autómatas, a pesar de su
capacidad de aprendizaje profundo.
Estos sistemas
inteligentes pueden resolver problemas y actuar de forma independiente, pero no
son autónomos en el sentido humano. Los seres humanos son quienes tienen
dignidad, merecen respeto y son responsables debido a su capacidad de
autodeterminación.
Se argumenta que las
decisiones que afectan la vida de las personas no deben dejarse exclusivamente
en manos de máquinas inteligentes sin supervisión humana. Los algoritmos, que a
menudo son diseñados por organizaciones distintas a las que los aplican, no
deben ser el único factor en la toma de decisiones importantes.
El Reglamento
General de Protección de Datos de la UE establece que los ciudadanos europeos
no deben estar sujetos a decisiones basadas únicamente en procesos automáticos
de datos sin intervención humana.
Además, se destaca
que la responsabilidad moral no puede atribuirse a la "tecnología
autónoma", sino que el control humano es esencial para hablar de
responsabilidad moral. Los humanos deben seguir en control y ser moralmente
responsables. Se menciona la propuesta de crear una personalidad jurídica para
los robots autónomos más complejos, pero se plantea que las decisiones sobre
cómo deben servir al bien deben ser tomadas por los humanos, no por un
algoritmo.
Es de suma
importancia que las personas sepan si están interactuando con otro ser humano o
con una máquina, y se argumenta que no se debe recurrir al engaño en este
sentido, como parte del respeto a la dignidad humana.
II. Explicabilidad y rendición de cuentas, enfatiza
el principio de explicabilidad o trazabilidad en relación con el respeto a la
autonomía. Según este principio, las personas tienen derecho a controlar el uso
de sus datos y a conocer los algoritmos que los manejan. Se menciona que tanto
los seres humanos como los sistemas autómatas tienen sesgos, pero los sesgos en
los sistemas son más invisibles. Esto se debe a que los diseñadores introducen
sesgos en los sistemas inteligentes, ya sea consciente o inconscientemente.
Se presenta un
ejemplo relacionado con la evaluación de profesores en el sistema educativo de
Washington D.C. En este caso, se utilizó un algoritmo llamado IMPACT para
evaluar el desempeño de los docentes y despedir a aquellos que no alcanzaron
cierto nivel. Sin embargo, una maestra muy apreciada, Sarah Wysocki, fue
despedida debido a una baja puntuación en competencias lingüísticas y
matemáticas. Sarah buscó respuestas sobre cómo se llegó a esa puntuación, pero
no obtuvo una explicación clara de la consultora que elaboró el algoritmo. Esto
revela que el modelo utilizado es una "caja negra".
El texto argumenta
que, si se toma en serio el principio de autonomía y el hecho de que los seres humanos
son interlocutores válidos en asuntos que les afectan, es necesario que las
personas comprendan y conozcan la trazabilidad de los algoritmos que impactan
sus vidas. Esto implica saber quién los construye, qué sesgos tienen y con qué
objetivos se utilizan. Además, se señala que la supervisión humana es necesaria
por razones de eficiencia, como se evidencia en el caso de Sarah.
La importancia de la
explicabilidad de los algoritmos y la supervisión humana en el contexto de la
autonomía y el impacto de los sistemas digitales en la vida de las personas.
III. No dañar, señala que no se debe hacer
todo lo que es posible. Se reconoce que seguir este principio es difícil, ya
que en un mundo competitivo otras empresas y países pueden comercializar
productos e implementar innovaciones sin preocuparse demasiado por no causar
daño.
Sin embargo, se
subraya la obligación de respetar a los seres humanos y evitar posibles daños.
Esto implica proteger a las personas a través de los "derechos
digitales" de cuarta generación. Estos derechos incluyen el derecho a la
privacidad en entornos digitales, la protección de la integridad personal
(intimidad), el derecho a la propia imagen y reputación, estar a salvo de
contenidos perjudiciales (como discursos de odio y ciberacoso), y evitar el mal
uso de los datos obtenidos.
Se enfatiza que los
datos no deben utilizarse sin el consentimiento de la persona y para fines
distintos a los que justificaron su obtención.
IV. Promover un mundo justo, uno de los aspectos más importantes a
considerar en el contexto de las nuevas tecnologías. Se enfatiza la necesidad
de distribuir equitativamente los beneficios de estas tecnologías y promover un
mundo inclusivo donde la brecha digital no divida a la humanidad.
El acceso desigual a
los avances tecnocientíficos se percibe como una amenaza para la cohesión
social.
Además, se menciona
la transformación del mundo laboral como un tema relevante que no se puede
pasar por alto. Dado que los derechos fundamentales, incluidos los derechos
sociales, son parte del ADN de la Unión Europea, se considera necesario mejorar
las competencias digitales de los ciudadanos y organizar el mundo del trabajo
de manera que nadie quede excluido.
Se plantea la importancia
de proteger los derechos sociales de las personas durante la transición hacia
la sociedad digital, y se sugieren propuestas como una renta básica universal,
la predistribución de recursos o la idea de que los robots paguen impuestos, ya
que están reemplazando a las personas.
El dilema ético de la IA: equilibrando el progreso y la moralidad
Los avances en IA han revolucionado la forma en que vivimos y
trabajamos. Desde Siri y Alexa hasta los automóviles autónomos y la atención
médica personalizada, los beneficios de la IA son innegables. Sin embargo, a
medida que continuamos empujando los límites de la IA, también debemos
considerar las implicaciones éticas de esta tecnología. ¿Podemos confiar en que
la IA tome decisiones morales? ¿Deberíamos permitir que la IA reemplace la toma
de decisiones humanas en áreas críticas como la atención médica, la justicia y
la guerra? En este artículo, exploraremos el dilema ético de la inteligencia
artificial y examinaremos cómo podemos navegar este terreno complejo.
La moralidad de
la IA: las implicaciones de desarrollar IA sin consideraciones éticas
El desarrollo de la IA ha sido impulsado en gran medida por el deseo
de mejorar la eficiencia y la productividad. Sin embargo, sin consideraciones
éticas adecuadas, las consecuencias no deseadas de la IA pueden ser
desastrosas. Un ejemplo de esto es el uso de la tecnología de reconocimiento
facial por parte de las agencias de aplicación de la ley.
Se ha demostrado que esta tecnología tiene un sesgo hacia las
personas de color, lo que lleva a arrestos y condenas injustas. De manera
similar, se ha criticado el uso de la IA en contratación y selección de
personal por perpetuar sesgos de género y raza.
Además, los sistemas de IA a menudo pueden tomar decisiones que
tienen implicaciones morales significativas sin comprender completamente las
consecuencias éticas. Por ejemplo, un sistema de IA diseñado para maximizar las
ganancias de una empresa puede no tener en cuenta el impacto de sus decisiones
en el medio ambiente, sus clientes o sus empleados. Como tal, el desarrollo de
la IA debe ir acompañado de un marco ético riguroso que guíe el proceso de toma
de decisiones.
El impacto de
la IA en la sociedad: empleos, privacidad y seguridad
El surgimiento de la IA también ha planteado preocupaciones sobre su
impacto en la sociedad. Una de las preocupaciones más significativas es la
posible pérdida de empleos debido a la automatización. Según un informe de
McKinsey, hasta el 30% de los empleos podrían ser automatizados para 2030. Esto
podría tener un impacto devastador en la economía y la sociedad en su conjunto,
especialmente para los trabajadores poco calificados.
Otra preocupación es la posibilidad de que la IA infrinja nuestra
privacidad y seguridad. A medida que los sistemas de IA se vuelven más
sofisticados, podrán recopilar y analizar vastas cantidades de datos
personales. Estos datos luego se pueden utilizar para dirigirse a individuos
con publicidad personalizada o incluso manipular su comportamiento. Además,
existe el riesgo de que los sistemas de IA puedan ser pirateados, lo que lleva
al robo de información confidencial o incluso a la manipulación de
infraestructuras críticas.
Soluciones para
abordar el dilema ético de la IA
No hay una solución fácil para el dilema ético de la IA. Sin
embargo, se pueden tomar varias medidas para abordar estas preocupaciones. Un
paso importante es asegurarse de que la IA se desarrolle de manera transparente
y responsable. Esto significa que el proceso de toma de decisiones de los
sistemas de IA debe estar abierto a escrutinio y revisión. Además, los sistemas
de IA deben diseñarse para ser éticos por defecto, con un enfoque en minimizar
el daño y garantizar la equidad.
Otra solución es involucrar a una amplia gama de partes interesadas
en el desarrollo de la IA. Esto incluye no solo a los tecnólogos, sino también
a los éticos, a los formuladores de políticas y a los miembros del público. Al
involucrar a una diversidad de voces en el desarrollo de la IA, podemos
asegurar que la tecnología esté alineada con nuestros valores y sirva al bien
común.
Beneficios y
desventajas de la inteligencia artificial
A pesar de las preocupaciones éticas que rodean a la IA, también
existen beneficios significativos de esta tecnología. Por ejemplo, la IA puede
ayudarnos a realizar predicciones y tomar decisiones más precisas, lo que
conduce a mejores resultados en campos como la salud y las finanzas. Además, la
IA puede ayudarnos a automatizar tareas tediosas y repetitivas, liberando
tiempo para trabajos más significativos.
Sin embargo, también hay desventajas significativas de la IA. Una de
estas desventajas es el potencial de consecuencias no deseadas, como se
discutió anteriormente. Además, la IA puede ser costosa de desarrollar e
implementar, especialmente para organizaciones más pequeñas. Por último, existe
el riesgo de que la IA se pueda utilizar para perpetuar desequilibrios de poder
existentes, lo que conduce a una mayor desigualdad.
Consideraciones
éticas en el desarrollo y uso de la inteligencia artificial
Las consideraciones éticas son fundamentales cuando se trata del
desarrollo y uso de la IA. Una de estas consideraciones es el principio de
beneficencia, que establece que la IA debe diseñarse para maximizar los
beneficios mientras se minimiza el daño. Otra consideración es el principio de
no maleficencia, que establece que la IA no debe causar daño a individuos o a
la sociedad en su conjunto.
Además, las consideraciones éticas deben tener en cuenta cuestiones
de equidad y justicia. Por ejemplo, los sistemas de IA deben diseñarse para
evitar perpetuar sesgos y discriminación existentes. De manera similar, los
sistemas de IA deben usarse de manera que respeten los derechos y la dignidad
de todas las personas.
¿Quién es
responsable de la ética de la IA?
La responsabilidad de la ética de la IA recae en una variedad de
partes interesadas. Estas incluyen a los desarrolladores, a los formuladores de
políticas y a los usuarios de los sistemas de IA. Los desarrolladores tienen la
responsabilidad de asegurarse de que la IA se desarrolle de manera ética, con
un enfoque en minimizar el daño y garantizar la equidad.
Los formuladores de políticas tienen la responsabilidad de crear
regulaciones y pautas que promuevan el desarrollo y uso ético de la IA.
Finalmente, los usuarios de los sistemas de IA tienen la responsabilidad de
utilizar estos sistemas de manera que respete los principios éticos.
El futuro de la
ética de la IA
Las implicaciones éticas de la IA son complejas y multifacéticas.
Como tal, el desarrollo y uso de la IA deben estar guiados por un marco ético
riguroso. Este marco debe ser lo suficientemente flexible para adaptarse a
problemas y desafíos emergentes, al tiempo que se basa en principios éticos
fundamentales.
En conclusión, el dilema ético de la inteligencia artificial es uno
de los desafíos más significativos que enfrenta la sociedad hoy en día. A
medida que continuamos empujando los límites de la IA, debemos asegurarnos de
que esta tecnología esté guiada por principios morales y sirva al bien común.
Al hacerlo, podemos desbloquear todo el potencial de la IA mientras minimizamos
sus consecuencias no deseadas.
“La
IA desde la escatología: trascendencia en la inmanencia è
buscar ser perfecto y eterno, en el tiempo y espacio”
Bibliografía
Filosofía de la IA.
– HiSoUR Arte Cultura Historia
IA: definición,
historia, usos, peligros (datascientest.com)
Bostrom,
N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University
Press.
Floridi,
L. (2019). The Logic of Information: A Theory of Philosophy as Conceptual
Design. Oxford University Press.
Jobin,
A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics
guidelines. Nature Machine Intelligence, 1(9), 389-399.
Mittelstadt,
B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics
of algorithms: Mapping the debate. Big Data & Society, 3(2), 1-21.
Russell,
S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach.
Pearson.
Sandvig,
C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing
algorithms: Research methods for detecting discrimination on Internet
platforms. Data and discrimination: Collected essays, 89-120.
Wallach,
W., & Allen, C. (2009). Moral machines: teaching robots right from wrong.
Oxford University Press.
Comentarios
Publicar un comentario