La Inteligencia Artificial desde la filosofía

 

La Inteligencia Artificial desde la filosofía

La Inteligencia Artificial – en adelante, IA – ha sido una fuente de fascinación para los filósofos desde los primeros días de la informática. La IA se define como la capacidad de una máquina para aprender y actuar de manera inteligente, y se ha vuelto cada vez más importante a medida que avanza la tecnología.

Los filósofos han debatido durante mucho tiempo sobre las implicaciones de la IA para la vida humana y cómo se puede utilizar para mejorar nuestras vidas.

En este documento, exploraremos las implicaciones filosóficas de la IA desde varias perspectivas, como la ética, la filosofía de la mente, la epistemología, la metafísica y más. También consideraremos algunos posibles casos de uso de la IA en nuestra sociedad actual. Finalmente, discutiremos algunos desafíos potenciales que pueden surgir con un mayor uso de la IA en nuestras vidas.

La filosofía de la IA intenta responder a las siguientes preguntas:

¿Puede una máquina actuar inteligentemente?

¿Puede resolver cualquier problema que una persona resolvería pensando?

¿Son la inteligencia humana y la inteligencia de la máquina lo mismo?

¿Es el cerebro humano esencialmente una computadora?

¿Puede una máquina tener una mente, estados mentales y conciencia de la misma manera que un ser humano puede?

¿Puede sentir como son las cosas?

¿Dicha inteligencia tendría una línea de progreso?

Estas preguntas reflejan los intereses divergentes de los investigadores de IA, lingüistas, científicos cognitivos y filósofos, respectivamente. Las respuestas científicas a estas preguntas dependen de la definición de <<inteligencia>> y de <<conciencia>> y exactamente que <<maquinas>>.

Las proposiciones importantes en la filosofía de la IA incluyen:

La <<convención cortés>> de Turing: si una maquina se comporta tan inteligentemente como un ser humano, entonces es tan inteligente como un ser humano.

La propuesta de Dartmouth: <<Todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden describirse de manera tan precisa que se puede crear una máquina para simularla>>.

Hipótesis del sistema de símbolos físicos de Newell y Simon: <<Un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general>>.

La solida hipótesis de IA de Searle: <<La computadora debidamente programada con las entradas y salidas correctas tendría una mente exactamente igual que los seres humanos>>.

El mecanismo de Hobbes: <<Por ‘razón’… no es más que ‘cálculo’, es decir, sumar y restar, de las consecuencias de los nombres generales acordados para ‘marcar’ y ‘significar’ nuestros pensamientos…>>

Para introducirse en el área de la IA, se deben conocer conceptos básicos sobre lo que es la inteligencia o cómo se puede entender la inteligencia y los diversos tipos de inteligencia que se conocen. La palabra inteligencia tiene su origen en la palabra latina intelligentia, que surge de inteligere. Esta palabra se compone por dos términos: intus (“entere”) y legere (“escoger”). Desde el origen etimológico de la palabra el concepto de inteligencia hace referencia a quien sabe escoger; la inteligencia permite seleccionar las mejores opciones para solucionar una cuestión.

También se puede definir inteligencia como la capacidad o facultad de entender, razonar, saber, aprender y de resolver problemas. Se asemeja a conceptos como ‘entendimiento’ e ‘intelecto’. Desde la Psicología, la inteligencia es la capacidad cognitiva y el conjunto de funciones cognitivas como la memoria, la asociación y la razón.

Pero, con todo lo mencionado anteriormente me surgen un par preguntas ¿Puede el ser humano “crear” algo que nos iguale en nuestra capacidad de razonar? Y ¿puede esta inteligencia creada por el ser humano superar las capacidades humanas en el momento de razonar?

¿Qué es la IA? ¿Cómo surge?

Pareciera que la IA es un tema reciente, pero lo que es cierto, es que este un tema que tiene su historia y todo un proceso que se empezó a desarrollar en el año de 1943 con la publicación del articulo: A Logical Calculus of Ideas in Nervous Activity <<Un Cálculo Lógico de Ideas en la Actividad Nerviosa>>, de Warren McCullough y Walter Pitts. En este artículo, los científicos dieron a conocer el primer modelo matemático para la creación de una red neuronal.

Este es el punto de partida para el estudio y desarrollo de la IA. Con los avances de las investigaciones en 1950, dos estudiantes de Harvard: Marvin Minsky y Dean Edmonds, crean el Snarc, el primer ordenador de red neuronal, ese mismo año se publica el Test de Turing, escrito por Alan Turing, que sigue vigente actualmente y es utilizado para valorar las IA.

¿Presenta la IA algún peligro para el ser humano en cuanto a su trabajo y su desarrollo personal?

La IA nos presenta muchas posibilidades para la humanidad, pero también podría ser una amenaza peligrosa, algunos piensan que esta tecnología podría ser más peligrosa que la bomba nuclear.

Se tiene un cierto temor a que pueda suceder algo como una película de ciencia ficción, donde la IA en su capacidad de aprender y evolucionar de forma autónoma en algún momento se decida “revelarse” contra sus creadores.

Como se menciona esta posibilidad de que suceda esta revelación genera el temor en la sociedad, también se considera una posibilidad muy real. Expertos como Stephen Hawking, Elon Musk o Bill Gates dieron su punto de vista respecto a la IA.

Ellos coinciden en que, la IA representa una situación de alto riesgo e inevitable para los próximos años. Por eso lanzan una voz alarma para los gobiernos para que regulen este campo para que se desarrolle de forma ética y segura. Además de ellos más expertos han pedido a las Naciones Unidas que prohíba los <<robots asesinos>> y además otras armas militares autónomas.

A como también hay otra posición de otros expertos en esta área es que la IA y su futuro depende únicamente del uso que la humanidad decida darle. Y en este punto es donde se puede hablar un poco de historia general y otros aportes importes que ha recibido la humanidad en otras ciencias, y que en sus orígenes no era buscar el mal uso, sino que existen personas que la utilizan para buscar para bienes propios (poder político – social).

Como lo fue la formulación de la ecuación E=mc2, de Albert Einstein en 1905, donde se da el descubrimiento de la energía nuclear, y más adelante se utiliza en la bomba nuclear donde este gran aporte de la ciencia a la humanidad es la misma humanidad la que le da un mal uso y se ataca a la misma humanidad buscando la máxima autoridad de unos sobre otros y no una sana relación.

En este momento se puede entrar al tema de la ética y moral que rigen o deberían regir a la IA para evitar situaciones que atenten contra la humanidad. Estas situaciones en contra de la humanidad no solo se pueden dar en problemas bélicos sino, también situaciones políticas.

En abril de 2018 se celebraron elecciones municipales en un distrito de Tokio con más de 150.000 habitantes, llamado Tama New Town. Entre los candidatos se presentó un robot androide, con rasgos femeninos, Michihito Matsuda, quien << ¿podemos decir quién”?)>> quedó de tercera en la segunda vuelta con 4.013 votos. Michihito había prometido acabar con la corrupción y ofrecer oportunidades justas y equilibradas para todos, y su propuesta había generado una elevada aceptación[1]. Según Michihito, el algoritmo, mediante el Machine learning, podría sustituir las debilidades emocionales de los seres humanos, causa de malas decisiones políticas, corrupción, nepotismo y conflictos, por un análisis objetivo de los datos generados acerca de las opiniones, expectativas, preferencias y costumbres de la ciudadanía[2].

La dra. Adela Cortina Orts, quien tiene importantes aportes en el campo de la ética y la filosofía aplicada dice en su artículo, Ética de la Inteligencia Artificial, que se puede hablar de tres tipos de IA y de su posible correspondiente ética.

I.         La inteligencia superior o superinteligencia se refiere a una forma de inteligencia que supera la capacidad humana y plantea la posibilidad de que las máquinas puedan reemplazar a los seres humanos. Esta idea está relacionada con el transhumanismo y el posthumanismo, y con la noción de "singularidad", que sugiere un cambio radical en la historia de la humanidad debido al avance de la tecnología y la inteligencia artificial.

Se mencionan varios pensadores y defensores de esta idea, como John von Neumann, quien fue uno de los primeros en reconocer el potencial de la computación, y Raymond Kurzweil, quien propone que los humanos trasciendan su forma biológica y transfieran su inteligencia a las máquinas. Se menciona también la fundación de la Singularity University en 2008, que busca preparar a la humanidad para un cambio acelerado en la tecnología.

Se reconoce que hay discrepancias en el campo de la IA en cuanto a si estas predicciones del transhumanismo y el posthumanismo se cumplirán científicamente. Algunos creen que se logrará crear superinteligencias artificiales en este siglo, mientras que otros sostienen que no hay suficiente base científica para afirmarlo. Sin embargo, independientemente de si esto se logra o no, se plantean cuestiones éticas importantes que deben abordarse.

Uno de los puntos de debate ético es si es un deber moral buscar la creación de seres superiores que puedan plantear problemas de convivencia con los seres humanos. Además, se plantea la preocupación de qué ética tendrían estas superinteligencias, ya que podrían desarrollar sus propios valores y actuar de acuerdo con ellos, lo que estaría más allá del control humano.

En contraposición a invertir recursos en la construcción de seres superiores, se plantea la pregunta de si no sería más ético utilizar la inteligencia artificial para resolver problemas urgentes como la guerra, la pobreza, la discriminación y la injusticia.

II.      Inteligencia general, es la capacidad de resolver problemas de manera general, y es típicamente humana. Es el objetivo de la IA desarrollar máquinas que tengan una inteligencia general similar a la humana.

Se menciona la distinción hecha por John Searle en 1980 entre IA fuerte y débil. La IA fuerte implica que una computadora es una mente capaz de pensar como un ser humano, pero Searle argumenta que esto es imposible porque las máquinas carecen de la intencionalidad que los humanos atribuimos a las cosas que nos rodean. Searle sostiene que una máquina no puede comprender el significado de los símbolos que maneja y que no puede haber inteligencia general sin un cuerpo.

Se destaca la importancia del cuerpo humano en la capacidad de dar sentido común a nuestro entorno, comprender e interpretar desde contextos concretos, contar con valores, emociones y sentimientos, y tomar decisiones desde ese punto de vista ético. Se plantea la pregunta de si es posible dotar de sentido común a las máquinas, incluso si no tienen un cuerpo humano. Aunque se invierte una gran cantidad de financiamiento en esta área, hasta ahora no parece haberse logrado.

En caso de que fuera posible crear sistemas inteligentes con inteligencia general similar a la humana, surgen preguntas sobre si deberíamos reconocerles autonomía, considerarlos personas con dignidad y responsabilidad, y si deberían tener derechos y deberes. También se plantea si se debiese tratar a estas máquinas con respeto y compasión, e incluso considerarlas ciudadanas del mundo político.

Sin embargo, se concluye que por el momento esto parece altamente improbable, no solo porque no se ha logrado, sino también porque cualquier simulación de intencionalidad, emociones, valores y sentido común en las máquinas sería solo eso, una simulación. Para experimentar verdaderos sentimientos, se requiere un cuerpo.

III.    Inteligencia especial, se refiere a la capacidad de los sistemas inteligentes para llevar a cabo tareas específicas de manera superior a la inteligencia humana. Esto se debe a su capacidad para procesar una gran cantidad de datos y utilizar algoritmos sofisticados. Este tipo de inteligencia especial ha estado presente desde 1958 en diversos ámbitos.

Se menciona el caso famoso de la supercomputadora de IBM, Deep Blue, que jugó al ajedrez contra el campeón mundial Gary Kasparov en 1996 y 1997. En 1996, Kasparov ganó, pero en 1997, Deep Blue había aprendido de sus errores y derrotó a Kasparov. Esto causó gran revuelo, ya que el sistema inteligente fue capaz de realizar la tarea de jugar ajedrez contando con una gran cantidad de datos y una capacidad de correlación superior a la de los seres humanos.

Se destacan diversas áreas en las que se están abordando problemas utilizando algoritmos eficientes, como el sector de la salud, la predicción climatológica, la productividad empresarial, la comunicación, el ocio, la planificación del tiempo, el ahorro de costes, el asesoramiento crediticio, el reconocimiento de voz, la lectura de textos y el asesoramiento en el ámbito agrícola. Se menciona la minería de datos como un proceso de búsqueda sistemática de patrones en grandes conjuntos de datos, que se utiliza tanto en la investigación científica como en el mundo empresarial.

Sin embargo, se enfatiza que, en todos estos casos, el elemento directivo sigue siendo la persona humana que utiliza la potencia de los sistemas inteligentes para procesar y analizar grandes cantidades de datos, incluso para aprender de sus "experiencias". En la actualidad, no se trata de una ética de los sistemas inteligentes en sí, sino de cómo orientar el uso humano de estos sistemas de manera ética.

La dra. Adela Cortina Orts ofrece en este mismo articulo ofrece un marco ético para la IA expuestos en cuatro puntos específicos los cuales son

I.         Autonomía y dignidad, el término "autonomía" solo puede aplicarse a los seres humanos, ya que implica la capacidad de autolegislarse y autodeterminarse. Esta capacidad está ligada al reconocimiento de la dignidad de las personas y es el núcleo de las orientaciones éticas. Se enfatiza que los sistemas llamados "autónomos" en realidad son artefactos o autómatas, a pesar de su capacidad de aprendizaje profundo.

Estos sistemas inteligentes pueden resolver problemas y actuar de forma independiente, pero no son autónomos en el sentido humano. Los seres humanos son quienes tienen dignidad, merecen respeto y son responsables debido a su capacidad de autodeterminación.

Se argumenta que las decisiones que afectan la vida de las personas no deben dejarse exclusivamente en manos de máquinas inteligentes sin supervisión humana. Los algoritmos, que a menudo son diseñados por organizaciones distintas a las que los aplican, no deben ser el único factor en la toma de decisiones importantes.

El Reglamento General de Protección de Datos de la UE establece que los ciudadanos europeos no deben estar sujetos a decisiones basadas únicamente en procesos automáticos de datos sin intervención humana.

Además, se destaca que la responsabilidad moral no puede atribuirse a la "tecnología autónoma", sino que el control humano es esencial para hablar de responsabilidad moral. Los humanos deben seguir en control y ser moralmente responsables. Se menciona la propuesta de crear una personalidad jurídica para los robots autónomos más complejos, pero se plantea que las decisiones sobre cómo deben servir al bien deben ser tomadas por los humanos, no por un algoritmo.

Es de suma importancia que las personas sepan si están interactuando con otro ser humano o con una máquina, y se argumenta que no se debe recurrir al engaño en este sentido, como parte del respeto a la dignidad humana.

II.      Explicabilidad y rendición de cuentas, enfatiza el principio de explicabilidad o trazabilidad en relación con el respeto a la autonomía. Según este principio, las personas tienen derecho a controlar el uso de sus datos y a conocer los algoritmos que los manejan. Se menciona que tanto los seres humanos como los sistemas autómatas tienen sesgos, pero los sesgos en los sistemas son más invisibles. Esto se debe a que los diseñadores introducen sesgos en los sistemas inteligentes, ya sea consciente o inconscientemente.

Se presenta un ejemplo relacionado con la evaluación de profesores en el sistema educativo de Washington D.C. En este caso, se utilizó un algoritmo llamado IMPACT para evaluar el desempeño de los docentes y despedir a aquellos que no alcanzaron cierto nivel. Sin embargo, una maestra muy apreciada, Sarah Wysocki, fue despedida debido a una baja puntuación en competencias lingüísticas y matemáticas. Sarah buscó respuestas sobre cómo se llegó a esa puntuación, pero no obtuvo una explicación clara de la consultora que elaboró el algoritmo. Esto revela que el modelo utilizado es una "caja negra".

El texto argumenta que, si se toma en serio el principio de autonomía y el hecho de que los seres humanos son interlocutores válidos en asuntos que les afectan, es necesario que las personas comprendan y conozcan la trazabilidad de los algoritmos que impactan sus vidas. Esto implica saber quién los construye, qué sesgos tienen y con qué objetivos se utilizan. Además, se señala que la supervisión humana es necesaria por razones de eficiencia, como se evidencia en el caso de Sarah.

La importancia de la explicabilidad de los algoritmos y la supervisión humana en el contexto de la autonomía y el impacto de los sistemas digitales en la vida de las personas.

III.    No dañar, señala que no se debe hacer todo lo que es posible. Se reconoce que seguir este principio es difícil, ya que en un mundo competitivo otras empresas y países pueden comercializar productos e implementar innovaciones sin preocuparse demasiado por no causar daño.

Sin embargo, se subraya la obligación de respetar a los seres humanos y evitar posibles daños. Esto implica proteger a las personas a través de los "derechos digitales" de cuarta generación. Estos derechos incluyen el derecho a la privacidad en entornos digitales, la protección de la integridad personal (intimidad), el derecho a la propia imagen y reputación, estar a salvo de contenidos perjudiciales (como discursos de odio y ciberacoso), y evitar el mal uso de los datos obtenidos.

Se enfatiza que los datos no deben utilizarse sin el consentimiento de la persona y para fines distintos a los que justificaron su obtención.

IV.       Promover un mundo justo, uno de los aspectos más importantes a considerar en el contexto de las nuevas tecnologías. Se enfatiza la necesidad de distribuir equitativamente los beneficios de estas tecnologías y promover un mundo inclusivo donde la brecha digital no divida a la humanidad.

El acceso desigual a los avances tecnocientíficos se percibe como una amenaza para la cohesión social.

Además, se menciona la transformación del mundo laboral como un tema relevante que no se puede pasar por alto. Dado que los derechos fundamentales, incluidos los derechos sociales, son parte del ADN de la Unión Europea, se considera necesario mejorar las competencias digitales de los ciudadanos y organizar el mundo del trabajo de manera que nadie quede excluido.

Se plantea la importancia de proteger los derechos sociales de las personas durante la transición hacia la sociedad digital, y se sugieren propuestas como una renta básica universal, la predistribución de recursos o la idea de que los robots paguen impuestos, ya que están reemplazando a las personas.

El dilema ético de la IA: equilibrando el progreso y la moralidad

Los avances en IA han revolucionado la forma en que vivimos y trabajamos. Desde Siri y Alexa hasta los automóviles autónomos y la atención médica personalizada, los beneficios de la IA son innegables. Sin embargo, a medida que continuamos empujando los límites de la IA, también debemos considerar las implicaciones éticas de esta tecnología. ¿Podemos confiar en que la IA tome decisiones morales? ¿Deberíamos permitir que la IA reemplace la toma de decisiones humanas en áreas críticas como la atención médica, la justicia y la guerra? En este artículo, exploraremos el dilema ético de la inteligencia artificial y examinaremos cómo podemos navegar este terreno complejo.

La moralidad de la IA: las implicaciones de desarrollar IA sin consideraciones éticas

El desarrollo de la IA ha sido impulsado en gran medida por el deseo de mejorar la eficiencia y la productividad. Sin embargo, sin consideraciones éticas adecuadas, las consecuencias no deseadas de la IA pueden ser desastrosas. Un ejemplo de esto es el uso de la tecnología de reconocimiento facial por parte de las agencias de aplicación de la ley.

Se ha demostrado que esta tecnología tiene un sesgo hacia las personas de color, lo que lleva a arrestos y condenas injustas. De manera similar, se ha criticado el uso de la IA en contratación y selección de personal por perpetuar sesgos de género y raza.

Además, los sistemas de IA a menudo pueden tomar decisiones que tienen implicaciones morales significativas sin comprender completamente las consecuencias éticas. Por ejemplo, un sistema de IA diseñado para maximizar las ganancias de una empresa puede no tener en cuenta el impacto de sus decisiones en el medio ambiente, sus clientes o sus empleados. Como tal, el desarrollo de la IA debe ir acompañado de un marco ético riguroso que guíe el proceso de toma de decisiones.

El impacto de la IA en la sociedad: empleos, privacidad y seguridad

El surgimiento de la IA también ha planteado preocupaciones sobre su impacto en la sociedad. Una de las preocupaciones más significativas es la posible pérdida de empleos debido a la automatización. Según un informe de McKinsey, hasta el 30% de los empleos podrían ser automatizados para 2030. Esto podría tener un impacto devastador en la economía y la sociedad en su conjunto, especialmente para los trabajadores poco calificados.

Otra preocupación es la posibilidad de que la IA infrinja nuestra privacidad y seguridad. A medida que los sistemas de IA se vuelven más sofisticados, podrán recopilar y analizar vastas cantidades de datos personales. Estos datos luego se pueden utilizar para dirigirse a individuos con publicidad personalizada o incluso manipular su comportamiento. Además, existe el riesgo de que los sistemas de IA puedan ser pirateados, lo que lleva al robo de información confidencial o incluso a la manipulación de infraestructuras críticas.

Soluciones para abordar el dilema ético de la IA

No hay una solución fácil para el dilema ético de la IA. Sin embargo, se pueden tomar varias medidas para abordar estas preocupaciones. Un paso importante es asegurarse de que la IA se desarrolle de manera transparente y responsable. Esto significa que el proceso de toma de decisiones de los sistemas de IA debe estar abierto a escrutinio y revisión. Además, los sistemas de IA deben diseñarse para ser éticos por defecto, con un enfoque en minimizar el daño y garantizar la equidad.

Otra solución es involucrar a una amplia gama de partes interesadas en el desarrollo de la IA. Esto incluye no solo a los tecnólogos, sino también a los éticos, a los formuladores de políticas y a los miembros del público. Al involucrar a una diversidad de voces en el desarrollo de la IA, podemos asegurar que la tecnología esté alineada con nuestros valores y sirva al bien común.

Beneficios y desventajas de la inteligencia artificial

A pesar de las preocupaciones éticas que rodean a la IA, también existen beneficios significativos de esta tecnología. Por ejemplo, la IA puede ayudarnos a realizar predicciones y tomar decisiones más precisas, lo que conduce a mejores resultados en campos como la salud y las finanzas. Además, la IA puede ayudarnos a automatizar tareas tediosas y repetitivas, liberando tiempo para trabajos más significativos.

Sin embargo, también hay desventajas significativas de la IA. Una de estas desventajas es el potencial de consecuencias no deseadas, como se discutió anteriormente. Además, la IA puede ser costosa de desarrollar e implementar, especialmente para organizaciones más pequeñas. Por último, existe el riesgo de que la IA se pueda utilizar para perpetuar desequilibrios de poder existentes, lo que conduce a una mayor desigualdad.

Consideraciones éticas en el desarrollo y uso de la inteligencia artificial

Las consideraciones éticas son fundamentales cuando se trata del desarrollo y uso de la IA. Una de estas consideraciones es el principio de beneficencia, que establece que la IA debe diseñarse para maximizar los beneficios mientras se minimiza el daño. Otra consideración es el principio de no maleficencia, que establece que la IA no debe causar daño a individuos o a la sociedad en su conjunto.

Además, las consideraciones éticas deben tener en cuenta cuestiones de equidad y justicia. Por ejemplo, los sistemas de IA deben diseñarse para evitar perpetuar sesgos y discriminación existentes. De manera similar, los sistemas de IA deben usarse de manera que respeten los derechos y la dignidad de todas las personas.

¿Quién es responsable de la ética de la IA?

La responsabilidad de la ética de la IA recae en una variedad de partes interesadas. Estas incluyen a los desarrolladores, a los formuladores de políticas y a los usuarios de los sistemas de IA. Los desarrolladores tienen la responsabilidad de asegurarse de que la IA se desarrolle de manera ética, con un enfoque en minimizar el daño y garantizar la equidad.

Los formuladores de políticas tienen la responsabilidad de crear regulaciones y pautas que promuevan el desarrollo y uso ético de la IA. Finalmente, los usuarios de los sistemas de IA tienen la responsabilidad de utilizar estos sistemas de manera que respete los principios éticos.

El futuro de la ética de la IA

Las implicaciones éticas de la IA son complejas y multifacéticas. Como tal, el desarrollo y uso de la IA deben estar guiados por un marco ético riguroso. Este marco debe ser lo suficientemente flexible para adaptarse a problemas y desafíos emergentes, al tiempo que se basa en principios éticos fundamentales.

En conclusión, el dilema ético de la inteligencia artificial es uno de los desafíos más significativos que enfrenta la sociedad hoy en día. A medida que continuamos empujando los límites de la IA, debemos asegurarnos de que esta tecnología esté guiada por principios morales y sirva al bien común. Al hacerlo, podemos desbloquear todo el potencial de la IA mientras minimizamos sus consecuencias no deseadas.

“La IA desde la escatología: trascendencia en la inmanencia è buscar ser perfecto y eterno, en el tiempo y espacio”

 

 

Bibliografía

Filosofía de la IA. – HiSoUR Arte Cultura Historia

IA: definición, historia, usos, peligros (datascientest.com)

Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

Floridi, L. (2019). The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford University Press.

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.

Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1-21.

Russell, S., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. Pearson.

Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing algorithms: Research methods for detecting discrimination on Internet platforms. Data and discrimination: Collected essays, 89-120.

Wallach, W., & Allen, C. (2009). Moral machines: teaching robots right from wrong. Oxford University Press.



[1] Whiters, 2018.

[2] Matsumoto, 2018; Calvo, 2019.

Comentarios

Entradas populares de este blog

Experiencias