En la avalancha de historias recientes sobre inteligencia artificial (AI), Catholic News Service publica uno en el que entrevistan al P. Phillip Larrey de la Pontificia Universidad Lateranense de Roma.
P. Larrey dice que las empresas de tecnología de Silicon Valley ahora están consultando con líderes religiosos sobre asuntos relacionados con la IA, que aparentemente incluyen la naturaleza de la conciencia, la humanidad y el propósito de la vida.
Cuando se trata de definir la conciencia, ¡buena suerte! Este es un problema perenne que nadie sabe manejar bien. La conciencia es algo que experimentamos, pero definirla de una manera que no utilice otros términos relacionados con la conciencia ha resultado casi imposible, al menos hasta ahora.
Está claro que la conciencia implica procesar información, pero ser capaz de procesar información no significa tener la capacidad de hacerlo. conciencia a lo que nos referimos como conciencia. Las máquinas sumadoras mecánicas del siglo XIX pueden procesar información, pero no son conscientes.
Tampoco lo son las computadoras, los robots o la inteligencia artificial. El Próxima generación El episodio "La medida de un hombre" incluía una línea que resumía sin rodeos la situación: "Los datos son una tostadora..” Puede parecer y actuar como humano, pero el Sr. Data no sólo no tiene emociones, sino que tampoco tiene conciencia (aunque el episodio intentó fingir lo contrario). Es sólo una máquina de procesar datos.
Lo mismo ocurrirá con cualquier IA basada en silicio que tengamos o que se nos ocurra en el futuro previsible. Es posible que estén programados para parecer humanos y, hipotéticamente, algún día podrían procesar información mejor que un humano, pero lo único que harán será barajar símbolos de acuerdo con reglas. No tendrán conciencia genuina.
Aun así, es bueno que las empresas de tecnología estén hablando con especialistas en ética y líderes religiosos sobre el impacto que tendrán en las vidas humanas. Según el artículo del CNS:
Él [el P. Larrey] también identificó posibles efectos adversos de la IA para los usuarios cotidianos, señalando que los menores pueden pedir consejo a los chatbots para cometer actividades ilícitas y los estudiantes pueden usarlos para completar sus tareas sin realizar el trabajo de aprendizaje.
Una desventaja importante de la IA, afirmó, es que “nos volvemos dependientes del software y nos volvemos perezosos. Ya no pensamos por nosotros mismos, sino que recurrimos a la máquina”.
Cuando se trata de menores que preguntan a las IA cómo cometer delitos, estoy seguro de que las empresas de tecnología encontrarán formas de detenerlo. (“lo siento dave. Me temo que no puedo responder esa pregunta”). La responsabilidad legal por sí sola garantizará que lo hagan.
Sin embargo, la educación se adaptará al uso de la IA por parte de los estudiantes, al menos en algunas situaciones. Antes de la década de 1970, a la gente le preocupaba que las calculadoras electrónicas hicieran que los niños se volvieran perezosos y no memorizaran las tablas de multiplicar. Pero no necesita memorizar todas las cosas que solía necesitar cuando puede confiar en las computadoras para obtener respuestas. Por eso, hoy en día las clases de matemáticas incluyen regularmente calculadoras.
Lo mismo ocurrirá con la IA en la educación. Tomará tiempo y habrá algunas tareas para las cuales se prohibirá el uso de la IA, pero eventualmente los educadores encontrarán formas de incorporarla, y el P. Larrey lo reconoce en el artículo.
Quizás la parte más escalofriante de la historia viene cuando dice:
El Papa instó [a una audiencia de líderes tecnológicos] a “garantizar que el uso discriminatorio de estos instrumentos no se arraigue a expensas de los más frágiles y excluidos” y dio un ejemplo de cómo la IA toma decisiones sobre visas para solicitantes de asilo basándose en criterios generalizados. datos.
"No es aceptable que la decisión sobre la vida y el futuro de alguien se confíe a un algoritmo", dijo el Papa.
¡Amén! Parte de la razón es que ya no lo sabemos realmente cómo funcionan los algoritmos modernos. Se les juzga por sus resultados (por ejemplo, ¿el algoritmo de YouTube te mantiene viendo vídeos?), pero no entendemos claramente los detalles de lo que sucede bajo el capó.
Esto hace que los algoritmos cometan errores y empresas como Google, Facebook y YouTube ya son cajas negras burocráticas que toman decisiones secretas en detrimento de sus usuarios.
Por tanto, existen peligros reales para la IA. Incluso suponiendo que no les proporciones un control de disparo autónomo en una situación de guerra, nadie quiere escuchar: "Lo siento, pero la IA ha determinado que curarte sería dudoso y costoso, por lo que simplemente se permitirá que tu enfermedad mortal desaparezca". sigue su curso."
Líderes religiosos necesite participar en esta conversación, por lo que es bueno saber que las empresas de tecnología los están consultando.
Los datos pueden ser una tostadora, pero no deberían convertirse en una tostadora opaca y espeluznante con el poder de la vida y la muerte.