Evidencia empírica, oportunidades y riesgos de la IA

Detalles Bibliográficos
Publicado en: Jornadas de Investigación en Filosofía (13 : 2023 : Ensenada) - [Actas] - . Ensenada : Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación. Departamento de Filosofía, 2023
Autor Principal: Damiani, Silvina
Formato: Documento de evento
Acceso en línea:http://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17123/ev.17123.pdf
http://jornadasfilo.fahce.unlp.edu.ar/xi-jornadas-2022/actas
Resumen:La inteligencia artificial está transformando rápidamente nuestra sociedad y la forma en que vivimos. Si bien es cierto que nos ocasiona beneficios significativos en diversas áreas, no es menos cierto que nos enfrenta también a riesgos y desafíos importantes y urgentes. En nuestra ponencia, presentaremos el modelo de lenguaje de inteligencia artificial GPT-3 como ejemplo para señalar los riesgos asociados a este modelo de IA (extensivo a otros). En particular, nos ocuparemos de los sesgos (racial, de género, de edad), la desinformación, la manipulación, la dependencia y otros problemas relacionados con la privacidad y la seguridad. La filosofía puede y debe proporcionar una perspectiva crítica y reflexiva sobre estos riesgos asociados al uso actual de la inteligencia artificial.

MARC

LEADER 00000naa a2200000 a 4500
001 EVENTO16385
008 190506s2023####|||#####|#####1###0#####d
100 |a Damiani, Silvina  |u UNS 
245 1 0 |a Evidencia empírica, oportunidades y riesgos de la IA 
041 7 |2 ISO 639-1  |a es 
520 3 |a La inteligencia artificial está transformando rápidamente nuestra sociedad y la forma en que vivimos. Si bien es cierto que nos ocasiona beneficios significativos en diversas áreas, no es menos cierto que nos enfrenta también a riesgos y desafíos importantes y urgentes. En nuestra ponencia, presentaremos el modelo de lenguaje de inteligencia artificial GPT-3 como ejemplo para señalar los riesgos asociados a este modelo de IA (extensivo a otros). En particular, nos ocuparemos de los sesgos (racial, de género, de edad), la desinformación, la manipulación, la dependencia y otros problemas relacionados con la privacidad y la seguridad. La filosofía puede y debe proporcionar una perspectiva crítica y reflexiva sobre estos riesgos asociados al uso actual de la inteligencia artificial. 
856 4 0 |u http://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17123/ev.17123.pdf 
952 |u http://www.memoria.fahce.unlp.edu.ar/trab_eventos/ev.17123/ev.17123.pdf  |a MEMORIA ACADEMICA  |b MEMORIA ACADEMICA 
856 4 1 |u http://jornadasfilo.fahce.unlp.edu.ar/xi-jornadas-2022/actas 
773 0 |7 m2am  |a Jornadas de Investigación en Filosofía (13 : 2023 : Ensenada)  |t [Actas]  |d Ensenada : Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación. Departamento de Filosofía, 2023 
542 1 |f Esta obra está bajo una licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional  |u https://creativecommons.org/licenses/by-nc-sa/4.0/