Agenda

De que hablamos cuando hablamos de Inteligencia Artificial. Riesgos y Oportunidades

Evento

Título:
De que hablamos cuando hablamos de Inteligencia Artificial. Riesgos y Oportunidades
Cuándo:
Jue, 4. Abril 2024, 19:00 h - 21:00 h
Dónde:
Centro 21 Marzo - Factoría Cultural Salón de Actos - Tres Cantos, Madrid
Categorías:
Conferencias, Historia y sociedad, Vídeo
De que hablamos cuando hablamos de Inteligencia Artificial. Riesgos y Oportunidades


Información del ponente

Nombre:
Juan Antonio Garde Roca
Posición:
Economista. Inspector de Hacienda del Estado. Ha sido Director General del Instituto de Estudios Fiscales y Presidente de la Agencia de Evaluación de Políticas Públicas. En la actualidad Presidente de ALGOVERIT "la verdad de los algoritmos"

Descripción del evento

 

La Inteligencia Artificial (IA) comprende un conjunto de tecnologías de rápida evolución que propician el despliegue de amplios beneficios económicos y sociales para la humanidad.

Ofrecen la construcción de nuevas oportunidades para un mundo mejor, ofreciendo grandes posibilidades civilizatorias, si su desarrollo se despliega al servicio del conjunto de los seres humanos y sus derechos, dentro de un marco cultural y social responsable.

Pero al mismo tiempo, los propios elementos y técnicas que incorpora pueden dar lugar a graves riesgos en sus usos y el despliegue de consecuencias no deseables, de no disponerse de marcos reguladores efectivos, así como de una gobernanza adecuada democráticamente asentada, en su articulación con una sociedad civil potente.

Existe un peligro cierto de que la IA y su uso evolucione y, de ser un potente instrumento de clasificación y conocimiento, pase a convertirse en un instrumento de calificación y pauta. Que deje de ser una herramienta de predicción e investigación para convertirse en una herramienta de conducción y adquiera sesgos y efectos desfavorables no sólo para las personas más vulnerables, sino también para el desarrollo civilizador de la humanidad.

Por ello resulta preciso:

1. Evitar que los algoritmos resultantes presenten sesgos. Para ello, es necesario garantizar que conjunto de datos que se ha utilizado para entrenar el modelo esté equilibrado, que la selección de las variables sea correcta, que la técnica utilizada sea adecuada y que su resultado sea relevante.

2. Garantizar que se respeten los derechos de las personas sobre las que se adoptan las decisiones o recomendaciones, lo que tiene implicaciones sobre las variables que puedan usarse para analizar los datos de partida y en el momento de la toma de decisiones.

3. Considerar que los resultados sean auditables, por la existencia de mecanismos que permitan conocer cómo se han adoptado las decisiones o ser posible analizarlas mediante el cruce con evidencias adecuadas. En relación con este último punto, existe la posibilidad de una gran variedad de tipos de auditorías y también de objetos de evaluación en relación con los algoritmos.

  La ética de la Inteligencia Artificial precisa tener en cuenta tanto la ética de los datos, la desplegada en el ámbito digital, así como la estrictamente algorítmica. Esta última adquiere una especial complejidad, cuando el sistema posee capacidades de aprendizaje y auto manejo autónomos, sin posibilidad de supervisión efectiva humana

 La principal finalidad de esta ética es cerciorarse de que se está creando un sistema seguro no sólo bajo control de los seres humanos, sino también al servicio de los mismos y sus derechos, y que alcanza un aseguramiento adecuado de que el sistema está alineado de forma sensible con los valores socialmente compartidos y las leyes.

Hoy el debate sobre la ética de uso de la IA incluye tanto la justicia y veracidad de datos, como respecto de la actividad digital, la minimización del sesgo algorítmico y el hecho de que los sistemas de IA estén alineados con los valores y preguntas morales fundamentales de los humanos que los utilizan, dependiendo de sus usos.

 Es cierto que la complejidad que puede alcanzar esta técnica, así como su innovación constante, llevan a preguntarse por la viabilidad de efectuar procesos integrales de análisis. También a considerar positivamente el uso de la Inteligencia Artificial (I.A.) como herramienta idónea para una auditoría viable, a partir del uso de algoritmos de aprendizaje automático o “machine learning”.

Todo ello refuerza la necesidad de evaluarse siempre considerando con realismo lo que puede y no puede auditarse y el cómo se audita.

Los seres humanos no somos productos tecnológicos, usamos la tecnología que nos aporta, pero no estamos limitados por ella, debemos tener nuestros propios fines y la libertad de elección, no dejar tan solo que ecuaciones no lineales, impredecibles e inexplicables sean las que determinen nuestro objetivo y destino.

 

Cualquier consulta o comentario sobre esta actividad debe realizarse mediante correo a: 

Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

Código QR de esta página

QR-Code dieser Seite