Inteligencia artificial, responsabilidad y compromiso cívico y democrático
Palabras clave:
inteligencia artificial, responsabilidad, democracia, derechos humanos, objetivos de desarrollo sostenibleResumen
Este artículo parte del reconocimiento de los profundos cambios que la inteligencia artificial está provocando en diversas esferas de la vida humana e invita a una reflexión sobre la necesidad de incorporar criterios éticos de responsabilidad en la práctica tecnológica. Para ello se toma como punto de partida el terreno político, por entender que es un terreno fértil desde el que formular el concepto de inteligencia artificial responsable. Este concepto de responsabilidad tecnológica se expresa desde la preocupación por los asuntos políticos humanos relativos a los derechos humanos y los objetivos de desarrollo sostenible y concibe que los avances en materia de inteligencia artificial deben incorporar a sus proyectos criterios de responsabilidad que sepan reconocer el valor y la necesidad de fortalecer las habilidades cívicas y la democracia desde la tecnología.Descargas
Citas
BENJAMIN, M. (2014): La guerra de los drones: matar por control remoto, Barcelona, Anagrama.
BUREAU OF EUROPEAN POLICY ADVISERS (2001): Empowering people, driving change. Social Innovation in the European Unión, Luxemburgo, Oficina de Publicaciones de la Unión Europea.
COMISIÓN EUROPEA (2010): EUROPA 2020 Una Estrategia para un crecimiento inteligente, sostenible e integrador. Disponible en: http://ec.europa.eu/archives/commission_2010 2014/president/news/documents/pdf/20100303_1_es.pdf
CONILL SANCHO, J. (2013): Horizontes de economía ética: Aristóteles, Adam Smith, Amartya Sen, Madrid, Tecnos.
CORTINA, A. (1996): “El estatuto de la ética aplicada. Hermenéutica crítica de las actividades humanas”, Isegoría, n° 13, pp. 119-127.
DASCAL, M. y DROR, I. E. DROR (2013): “The impact of cognitive technologies: Towards a pragmatic approach”, Pragmatic & Cognition, n° 13.
DIAMOND, L. (1999): Developing democracy. Towards consolidation, Baltimore, The John Hopkins University Press.
DIÉGUEZ, A. (2003): “Tecnología y responsabilidad”, Revista de Filosofía, n° 9, pp. 189-200.
DIGNUM, V. (2017a): “Responsible Autonomy”, International Joint Conference on Artificial Intelligence.
DIGNUM, V. (2017b): “Responsible artificial intelligence: designing AI for human values”, ITU Journal: ICT Discoveries, n° 1.
DIGNUM, V. (2018): “Ethics in artificial intelligence: introduction to the special issues”, Ethics and Information Technology, n° 20, pp. 1-3.
DIGNUM, V. y PADGET, J. A. (2013): “Intelligent Robotics and Autonomous Agents”, Multiagents systems, pp. 51-98.
DOMINGO MORATALLA T. (2017): “De la narración fílmica a la deliberación ética. La fenomenología hermenéutica como mediación (J. Marías y P. Ricoeur)”, SCIO. Revista de Filosofía, n° 13, pp. 25-55.
ELLUL, J. (2003): La edad de la técnica, Barcelona, Octaedro.
FLORIDI, L. (2001): The philosophy of information, Oxford, Oxford University
FLORIDI, L. (2002): “Information ethics: An environmental approach to the digital divide”, Philosophy in the Contemporary World, n° 9, pp. 39-45.
FLORIDI, L. (2002b): “On the intrinsic value of information objects and the infosphere”, Ethics and Information Technology, vol. 4, n° 4, pp. 287-304.
FLORIDI, L. (2005) “The ontological interpretation of informational privacy”, Ethics Information Technology, vol. 7, n° 4, pp. 185-200.
FLORIDI, L. (2006a): “Four challenges for a theory of informational privacy”, Ethics and Information Technology, vol. 8, n° 3, pp. 109-119.
FLORIDI, L. (2006b): “Information technologies and the tragedy of the good will”, Ethics and Information Technology, vol. 8, n° 4, pp. 253-262.
FLORIDI, L. (2007a): “Global information ethics: The importance of being environmentally Earnest”, International Journal of Technology and Human Interaction, vol. 3, n° 3, pp. 1-11.
FLORIDI, L. (2007b): “Understanding information ethics”, American Psychology Association Newsletters, vol. 8, n° 2, pp. 3-12.
FORGE, J. (2010): “A note on the definition of “dual use””, Science and Engineering Ethics, vol. 16, n° 1, pp. 111-118.
GOERING, S. y YUSTE R. (2016): “On the Necessity of Ethical Guidelines for Novel Neurotechnologies”, Cell, vol. 167, n° 3, pp. 882-885.
GRACIA, D. (2016): “Problemas con la deliberación”, Folia Humanística. Revista de Salud, Ciencias Sociales y Humanidades, n° 3.
GRUNWALD, A. (2014): “Technology Assessment for Responsible Innovation”, en VV.AA.: Responsible Innovation 1: Innovate Solutions for Global Issues, Springer, Nueva York, pp. 15-32.
HEIDEGGER, M. (1997): Filosofía, ciencia y técnica, Santiago de Chile, Editorial Universitaria.
HORKHEIMER, M. (2010): Crítica de la razón instrumental, Madrid, Trotta.
HORKHEIMER, M. y ADORNO, T. (2016): Dialéctica de la Ilustración: fragmentos filosóficos, Madrid, Trotta.
KURZWEIL, R. (2013): Cómo crear una mente: el secreto del pensamiento humano, Berlín, Lola Books.
KURZWEIL, R. (2017): La singularidad está cerca: cuando los humanos trascendamos la biología, Berlín, Lola Books.
JONAS, H. (2008). El principio de responsabilidad: ensayo de una ética para la civilización tecnológica, Barcelona, Herder.
JORDÁN, J. y BAQUÉS, J. (2014): Guerra de drones: política, tecnología, y cambio social en los nuevos conflictos, Madrid, Biblioteca Nueva.
NEDON, V. (2018): Open Innovation in R&D Departments, Hamburgo, Springer.
UNIVERSITÉ DE MONTRÉAL (2018): Montreal Declaration for a responsible development of artificial intelligence. Disponible en: https://docs.wixstatic.com/ugd/ebc3a3_c5c1c196fc164756afb92466c081d7ae.pdf.
MORALES, A. C. (2008): “Innovación social: un proceso emergente en las dinámicas de desarrollo”, Revista de Fomento Social, n° 63, pp. 411-444.
MORALES, A. C. (2009a): “Innovación social: un ámbito de interés para los servicios sociales, Zerbitzuan: Revista de servicios sociales, n° 45, pp. 151-175.
MORALES, A. C. (2009b): “Innovación ‘abierta’ en el tercer sector: el modelo organizativo 2.0”, Revista Española del Tercer Sector, n° 13, pp. 17-37.
MUMFORD, L. (1998): Técnica y civilización, Madrid, Alianza Editorial.
MUMFORD, L. (2017): El mito de la máquina, Logroño, Pepitas de calabaza.
QUINTANILLA, M. A. (2002): “La democracia tecnológica”, Arbor, n° 683-684, pp. 637-652.
PARSELIS, M. (2018): Dar sentido a la técnica ¿pueden ser honestas las tecnologías?, Madrid, Los libros de la Catarata.
RADNITZKY, G. (1973): “Hacia una teoría de la investigación que no es ni reconstrucción lógica ni psicología o sociología de la ciencia”, Teorema, n° 3, pp. 197-264.
SAREWITZ, D. y KARAS, T. H. (2007): “Policy Implications of Technologies for Cognitive Enhancement”, Sandia National Laboratories.
SKEEM, J. L. y LOWENKAMP, C. (2016): “Risk, Race & Recidivism: Predictive Bias and Disparate Impact”, SSRN.
URRA CANALES, M. (2017): Estado, mercado, academia… y comunidad. Una cuádruple hélice para el desarrollo integral y la innovación, tesis doctoral, Madrid, Universidad Pontificia Comillas.
VEGA REÑÓN, L. (2016): “Variaciones sobre la deliberación”, Dilemata, n° 22, pp. 203-230
VV.AA. (2018): The Malicious Use of Artificial Intelligence; Forecasting, Prevention, and Mitigation. Disponible en: https://arxiv.org/ftp/arxiv/papers/1802/1802.07228.pdf.
VV.AA. (2018): Toronto’s Declaration on Machine Learning. Disponible en: https://www.accessnow.org/cms/assets/uploads/2018/08/The-Toronto-Declaration_ENG_08-2018.pdf.
WALKER, W. R. y HERRMANN, D. J. (2005): Cognitive Technology: Essays On The Transformation Of Thourght And Society, McFarland & Company.
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Todos los números de CTS y sus artículos individuales están bajo una licencia CC-BY.
Desde 2007, CTS proporciona un acceso libre, abierto y gratuito a todos sus contenidos, incluidos el archivo completo de su edición cuatrimestral y los diferentes productos presentados en su plataforma electrónica. Esta decisión se sustenta en la creencia de que ofrecer un acceso libre a los materiales publicados ayuda a un mayor y mejor intercambio del conocimiento.
A su vez, para el caso de su edición cuatrimestral, la revista permite a los repositorios institucionales y temáticos, así como también a las web personales, el auto-archivo de los artículos en su versión post-print o versión editorial, inmediatamente después de la publicación de la versión definitiva de cada número y bajo la condición de que se incorpore al auto-archivo un enlace a la fuente original.