Académico plantea que la IA también puede usarse para protegernos y ser mejores personas

[:es]

El Dr. Ricardo Baeza Yates, director de investigación del Instituto para IA Experiencial de la Universidad de Northeastern (Estados Unidos) y académico de la Casa de Bello, aborda temas que están marcando la agenda a nivel local: inteligencia artificial y neuroderechos, además de la estrategia nacional en la materia.

 

Recientemente, la Cámara de Diputados aprobó la Reforma constitucional que consagra los neuroderechos frente al desarrollo de la inteligencia artificial (IA) y la neurociencia. Ahora pasará al Senado para un tercer trámite donde se definirá qué pasa con el numeral 1 del proyecto, que consagra el derecho a la vida, la integridad física y psíquica, así como a la inviolabilidad neuronal.

El proyecto que tiene como coautor a Rafael Yuste, científico español y director del NeuroTechnology Center de la Universidad Columbia, podría transformar a Chile en el primer país del mundo que contempla los neuroderechos en su Constitución.

El investigador del Departamento de Ciencias de la Computación y del Instituto Milenio Fundamentos de los Datos, Ricardo Baeza, si bien reconoce no ser neurocientífico como para responder con propiedad sobre el proyecto de Ley que está en el Congreso, plantea que “ciertamente podemos usar modelos de aprendizaje automático para manipular personas. Pero también podemos usarlos para protegernos y hacernos mejores personas, detectando sesgos, manipulaciones u otro tipo de acción perjudicial nuestra o de otras personas con las que interactuamos”.

Respecto a si los temores planteados ante el avance científico-técnico serían fundados o no, el docente plantea que son aprensiones legitimas.

“Estos temores son reales y los menciona Yuval Harari en su último libro, 21 lecciones para el siglo XXI. Pero para mí el problema no es que sean reales o no, sino si podemos separar el cerebro de nuestro cuerpo de ser humano. Los derechos humanos que existen también se aplican al cerebro, ¿tiene sentido legislar para un órgano específico? Tampoco creo que tenga sentido legislar por cada tipo de tecnología, debiera ser por cada tipo de problemas independiente de la tecnología”, enfatiza.

Por otra parte, sobre la interrogante de cómo afectarán las máquinas inteligentes el comportamiento de los seres humanos, detalla que esto dependerá del uso responsable y ético que se haga de la IA.

“Por ejemplo, evitar su uso cuando potencialmente pueda dañar psicológica o físicamente a una persona. Hoy en día la IA su usa para decidir la publicidad que recibe una persona en la Web. ¿Es ético que una persona con problemas metabólicos vea una publicidad de hamburguesas? También se usa para determinar sentimientos o característica de personalidad analizando videos de una persona durante una entrevista de trabajo. ¿Es esto ético? ¿Determina alguna preferencia la cara de una persona? Hay que recordar que correlación no implica causalidad, menos si no hay una base científica detrás de la aplicación”.

Estrategia Nacional de IA

En relación con la estrategia Nacional de Inteligencia Artificial a cargo del Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, señala que el documento tiene buenas iniciativas y también varias deficiencias.

“La más importante es que no se menciona el plazo y el presupuesto asociado a cada medida y muchas tienen objetivos que son inviables (media de la OCDE). También hay medidas que son muy similares como la 2.2 y la 2.3 (ecosistema de emprendimiento) o 2.6 y 2.7 (cambio climático y medio ambiente), lo que confunde un poco. Con OptIA mandamos un documento con 8 páginas de observaciones de contenido y de forma”, explica Baeza.

Finalmente, es cauteloso respecto a cómo aportará esta iniciativa en el trabajo de los académicos vinculados a estas áreas de investigación, añadiendo que “hay que esperar la estrategia final, pero supongo que habrá una línea de financiamiento especial en el Ministerio de Ciencia para las medidas que tiene que ver con investigación y aplicación de la IA, captación y retención de talento, etc. Esto podría permitir que haya un impacto mayor en todos los sectores productivos”.

Conoce más sobre Ricardo Baeza Yates

Investigador del Instituto de Inteligencia Artificial Experiencial de Northeastern University, Silicon Valley; Profesor titular, DCC, Universidad de Chile; e investigador senior del Instituto Milenio de Fundamentos de los Datos.

 

Por Comunicaciones OpenBeauchef

[:]