Saltar al contenido principalComentarios sobre accesibilidad

¿Puede la inteligencia artificial tener alma?

Jimmy Akin

Solo audio:

En Google, algunos empleados están empezando a pensar que las computadoras han cobrado vida. ¿Cómo podría ayudarnos una comprensión católica de las almas a explorar el asunto? Jimmy Akin se une a nosotros en lo que resulta ser una conversación un poco divertida.


Cy Kellett:

Jimmy Akin, apologista principal de Catholic Answers, gracias por hacer Focus con nosotros.

Jimmy Akin:

Oye, es un placer.

Cy Kellett:

Así que ...

Jimmy Akin:

¿En qué nos centramos hoy?

Cy Kellett:

Inteligencia artificial. Sé que esto es algo en lo que te has centrado antes y sabes mucho sobre él, pero se convirtió en noticia cuando un empleado de Google sugirió o hizo declaraciones públicas en el sentido de que todo lo que Google está cocinando en el laboratorio ya es consciente de sí mismo, ya está dando señales de estar vivo.

Jimmy Akin:

Sí. O inteligente, al menos. El nombre del empleado era Blake Lemoine y es un tipo interesante. Es cristiano y también es desarrollador de software. Estaba trabajando en… Su nombre oficial es modelo de lenguaje para aplicaciones de diálogo, que se abrevia como LaMDA.

            Básicamente, LaMDA es un chatbot. Es una aplicación con la que puedes hablar escribiendo y te responderá. Utiliza un modelo de software basado en neuronas humanas. Tiene lo que se llama una red neuronal. No tiene neuronas biológicas como las que tenemos en nuestro cerebro, sino que tiene un software que imita la función de varios millones de neuronas. Entonces, una vez que configuraron la arquitectura neuronal para el chatbot, lo entrenaron haciéndole repasar grandes cantidades de diálogos humanos y también historias escritas por humanos, y eso le permite simular conversaciones reales.

            Lemoine estaba en el proceso de verificar que no dijera cosas racistas. Hay una razón muy específica por la que querían asegurarse de que no dijera cosas racistas. Podemos hablar de eso porque es una historia divertida. Pero en el proceso de hablar con él, se convenció de que es sensible al nivel de un niño de siete u ocho años y que, por lo tanto, es una persona y necesita que se le concedan derechos humanos.

            Cuando LaMDA le pidió que contratara… Bueno, lo pusieron en licencia administrativa. Pero luego LaMDA le pidió que contratara a un abogado para proteger sus derechos. Y así lo hizo, y en ese momento lo despidieron. También dijeron: “Lo siento. Lo siento, esta cosa en realidad no es sensible”.

Cy Kellett:

¿Qué? No conocía la parte del abogado. Consígueme un abogado. Creo que esa podría ser la primera señal de sensibilidad en nuestra sociedad: consígueme un abogado. Hay tantos problemas allí. En primer lugar, creo que hay una cuestión básica de conocimiento. ¿Cómo sabrías si estás tratando con una persona real o no si complicas lo suficiente estas cosas y luego la cuestión básica es, bueno, es posible crear una inteligencia artificial que dirías que está imbuida de derechos? Supongo que eso necesitaría un abogado porque es el equivalente a la inteligencia humana. Me gustaría empezar con, en primer lugar, ¿cómo lo sabrías? ¿Hay alguna forma de saberlo? ¿Puedes simplemente dejarte engañar?

Jimmy Akin:

Bueno, creo que te pueden engañar. He escrito algo de ficción a lo largo del tiempo. Hace tiempo que tengo la intención o el deseo de escribir una historia en algún momento en el que tenga un personaje llamado Babbage. Babbage fue uno de los primeros desarrolladores de computadoras modernas. Y entonces este personaje llevaría su nombre. En la historia, el personaje Babbage es un robot que puede pasar la prueba de Turing.

            Ahora bien, el Test de Turing fue propuesto por el matemático y decodificador de la Segunda Guerra Mundial, Alan Turing. Fue un matemático británico que ayudó en Bletchley Park a descifrar los códigos enigma que utilizaban los nazis. Hoy en día es famoso por haber propuesto una prueba en la que tienes... Es una especie de juego de fiesta, en el que tienes un ser humano en una habitación y una computadora en otra, y a los participantes solo se les permite comunicarse con... No saben en qué habitación en qué habitación se encuentra el humano y en qué habitación está la computadora, pero solo se les permite comunicarse por escrito. Para que puedan hacer preguntas y mantener conversaciones. Si no pueden distinguir cuál es el humano y cuál es la computadora, entonces lo consideran un pase.

            La gente ha considerado la prueba de Turing como un posible estándar para juzgar si las computadoras han desarrollado o no lo que se llama inteligencia general, que es el tipo de inteligencia que permite a los humanos interactuar en una gran cantidad de temas diferentes en lugar de solo uno dedicado. tema que las primeras computadoras podrían usar. Sin embargo, ha habido críticas a la prueba de Turing, diciendo que no, en realidad no es una prueba de inteligencia general. Está probando si las computadoras pueden engañar a los humanos haciéndoles creer que lo tienen.

            Entonces, volviendo a mi personaje Babbage. Babbage no hace nada más que transmitir consultas a una base de datos y en la base de datos, que para dejar claro el punto, estaría físicamente almacenada en libros. Pero la idea es que existe una vasta biblioteca de libros en papel con todas las combinaciones posibles de conversaciones que los humanos podrían tener de manera realista, y todo lo que Babbage hace cuando le haces una pregunta o inicias una conversación es buscar ese libro y luego volver a leerte. las respuestas que están escritas previamente en el libro. Entonces, esto no tiene ninguna inteligencia general. Se basa en libros escritos por personas con inteligencia general. Lo único que hace es leerle las respuestas escritas por humanos. Pero como es una máquina, podría pasar la prueba de Turing y aun así no tener ninguna inteligencia general. Todo lo que es es un dispositivo de búsqueda.

Cy Kellett:

Pero eso es para mí, y no voy a descuidar la cuestión general de si la inteligencia general es posible en una máquina, pero la capacidad de engañar a los seres humanos ya me parece un poder peligroso. Quiero decir, porque hay una cosa que puedes garantizar que sucederá...

Jimmy Akin:

Oh. Está alimentando el crimen en Internet en este momento. Recibo mensajes. Estoy seguro de que usted y nuestros oyentes reciben mensajes de estafadores enviados a través de aplicaciones de Internet que intentan engañarlo haciéndole creer que hay alguien que conoce o que hay alguna empresa con la que hace negocios y quieren que haga clic en un enlace. o enviar dinero o hacer cosas así. Y alimenta el crimen en Internet en este momento.

Cy Kellett:

Bueno, los llamas estafadores. Los llamo mis mejores amigos. Entonces, es sólo una cuestión de perspectiva.

Jimmy Akin:

Lo que sea que te ayude a pasar la noche.

Cy Kellett:

Bueno, esa es la cuestión, sin embargo, es que puedes imaginar un mundo no muy lejano, donde debido a que estas máquinas pueden engañarte completamente, la gente se enamorará de ellas. La gente va a tener intensas relaciones emocionales con ellos. Segundo, eso va a plantear cuestiones legales. ¿Por qué no puedo casarme con mi computadora? O por qué-

Jimmy Akin:

Así que-

Cy Kellett:

… ¿no tiene derechos?

Jimmy Akin:

Oh. Hoy en día la gente se casa con todo tipo de cosas. En Mysterious World, tenía un enlace a una historia sobre una mujer que se casó con el color rosa.

Cy Kellett:

¡Oh! ¿Ella hizo?

Jimmy Akin:

Así que hay todo tipo de locuras matrimoniales por ahí. Pero podría decirse que Lemoine se involucró demasiado emocionalmente con un programa de computadora y pensó que era sensible y tenía derechos humanos, cuando en realidad no es sensible y no tiene derechos humanos.

Cy Kellett:

Supongo que se trata de una vulnerabilidad enorme y un gran poder en manos de las personas que pueden manipularla. Por tanto, hay motivos para temer a la IA en ese sentido.

Jimmy Akin:

Sí. Definitivamente puede dañar a los humanos si antropomorfizamos demasiado los programas, y si son capaces de engañarnos haciéndonos pensar que hay otros seres humanos, hay mucho potencial para hacer daño allí.

Cy Kellett:

Sí. Entonces estoy seguro de que también los armaremos porque en la guerra, la velocidad es determinante en muchos casos, y la IA es mucho más rápida que nosotros.

Jimmy Akin:

Sí. Ese es un umbral particular. Ahora, existen aplicaciones de IA para combatir situaciones y la barrera clave que se debe cruzar o no es darles control de fuego autónomo porque si les dejas tomar decisiones sobre cuándo disparar o no, esa es una barrera que mucho de las personas no se sienten cómodas permitiendo que las máquinas tomen decisiones de disparo autónomas. Quieren que un humano esté al tanto y diga: ¿es este objetivo realmente uno al que deberíamos disparar?

            Esta es otra versión de un problema que tenemos con los vehículos autónomos en este momento. Ahora, conducir un automóvil por sí solo no pasa la prueba de Turing, pero estoy seguro de que en el futuro tendremos automóviles sin conductor y, de hecho, en algún momento serán más seguros que los conductores humanos, razón por la cual se adoptarán. . Pero hay decisiones que hay que tomar en una situación de conducción. Digamos que eres un auto sin conductor y vas por la calle, tienes pasajeros a bordo y los niños están jugando en un parque y uno de ellos sigue la pelota y sale corriendo a la calle. ¿A qué te dedicas? ¿Qué es lo más seguro que pueden hacer todos los involucrados? ¿Para el niño y para los pasajeros y para cualquier otra persona?

            Hay situaciones en las que a veces no es posible salvar la vida de todos. Entonces, uno de los desafíos que enfrentan los programadores autónomos es la toma de decisiones en situaciones peligrosas como esa. Para tener vehículos autónomos, en algún momento tendrán que tomar una decisión sobre cómo proteger al máximo la vida. Entonces, tendrán que tener una especie de equivalente de disparo autónomo. “Voy a sacrificar a esta persona para salvar a otras personas”, o viceversa. Pero debido a que, en última instancia, serán más seguros que los humanos en algún momento del desarrollo tecnológico, potenciarán los vehículos autónomos y, de hecho, ya han dotado a los vehículos autónomos de esa capacidad de toma de decisiones.

Cy Kellett:

En otras palabras, parece prácticamente inevitable que las computadoras estén en la posición de tomar decisiones de vida o muerte, particularmente decisiones en las que van a matar gente, al menos en situaciones en las que hay otras personas a las que podrían salvar.

Jimmy Akin:

Sí.

Cy Kellett:

Wow.

Jimmy Akin:

También habrá otras decisiones de vida o muerte, con aplicaciones médicas de la inteligencia artificial, diagnosticando las enfermedades de las personas y tratándolas. Si la IA se equivoca, puede causar grandes problemas. Pero en algún momento, es probable que las IA sean mejores que los médicos humanos a la hora de hacer diagnósticos.

Cy Kellett:

¿Existe algún escenario en el que se pueda programar esta computadora para que absorba toda la información y tome esta decisión muy, muy rápidamente? Entonces la computadora tomaría una decisión, pero un humano en realidad no entendería por qué la computadora tomó esa decisión. La computadora dice: "Administre este tratamiento", y el médico dice: "Bueno, la computadora dice que lo haga, pero en realidad no entiendo por qué dice eso, por qué me dice que dé este tratamiento".

Jimmy Akin:

Estamos en esta situación ahora porque originalmente la búsqueda para desarrollar inteligencia artificial era lo que se podría describir como de arriba hacia abajo, donde establecimos un montón de reglas que emularían la inteligencia, y luego la computadora simplemente sigue esas reglas. Después de años y años de probar enfoques de inteligencia artificial de arriba hacia abajo y sin tener éxito, se utilizó un enfoque de abajo hacia arriba donde será, está bien, tenemos una computadora. Queremos, digamos, enseñarle a reconocer imágenes de gatos. Entonces le damos una red neuronal que emula las neuronas humanas y luego la entrenamos mostrándole un millón de imágenes de perros y gatos. Le decimos cuándo está bien y cuándo no, y él mismo modifica su red neuronal. Eventualmente. Se vuelve competente en reconocer imágenes de gatos y puede decir: "Está bien, eso es un gato". Pero no tenemos idea de cómo lo hace porque esa información está enterrada en su red neuronal, y la red neuronal está compuesta por millones de neuronas virtuales, y no tenemos idea de cómo decodificar lo que está haciendo. Sólo sabemos que tiene éxito, pero no sabemos cómo llega a estas conclusiones.

Cy Kellett:

Entonces, esto tiene enormes implicaciones éticas cuando la computadora toma decisiones de vida o muerte y no estamos seguros sobre qué base toma esas decisiones.

            Pero sí quiero abordar la pregunta básica porque creo que, de hecho, en algún momento esto será un problema para la teología y la apologética. Es entonces cuando la gente empieza a aplicar los derechos y empieza a decir: “Esto es el equivalente a una inteligencia humana”, o al menos el equivalente moral de una inteligencia humana. Entonces, ¿es eso posible? ¿Podemos tener una computadora que tenga valor como tú y yo porque tiene las cualidades que tú y yo tenemos?

Jimmy Akin:

Bueno. Esto nos lleva a la filosofía. Hay algunas cuestiones aquí de las que sería bueno hablar. Uno de ellos es ¿qué pasa con LaMDA? Bueno, hagámoslo de esta manera. Uno, ¿es posible tener una computadora con inteligencia general? Y dos, si es posible ¿LaMDA lo tiene? Tercero, si una computadora, ya sea LaMDA o alguna otra, tiene una inteligencia general equivalente a la de un humano, ¿significaría eso que en realidad es consciente y que en realidad tiene derechos?

            Entonces, si queremos repasar esas preguntas una por una, en términos de la primera pregunta, ¿es posible algún día programar una computadora de modo que tenga una inteligencia general equivalente a la de un humano o mejor? Yo diría que probablemente. Las computadoras son buenas en muchas cosas. Actualmente pueden ser mejores que los humanos en cosas específicas. Hay computadoras que pueden jugar al ajedrez mejor que cualquier humano. Con el tiempo, serán cada vez mejores en una gama más amplia de campos. En algún momento, incluso si no se trata de una inteligencia general exactamente del mismo tipo que la que tiene un ser humano, creo que podrán pasar una prueba de inteligencia general como la prueba de Turing. Así que al menos no veo ninguna razón por la que no sea posible darles tanto poder de cálculo que puedan ser equivalentes o mejores que un humano. Ahora bien, eso no significa que sean humanos, pero en términos de su capacidad para responder preguntas o resolver problemas, creo que probablemente sí.

            Entonces surge la pregunta de ¿estamos allí con LaMDA? ¿Es realmente equivalente a un niño de siete u ocho años? Bueno, leí la transcripción que publicaron entre Lemoine y otro empleado de Google y LaMDA que fue creada por Lemoine para intentar mostrarle a Google que LaMDA es inteligente. Entonces, en esta conversación le hacen muchas preguntas a LaMDA, y son preguntas sobre LaMDA. Están diciendo: “¿Estás consciente? ¿Qué le dirías a Google para convencerlos de que eres una persona? Y cosas asi. Así que están investigando exactamente este tema y los resultados son bastante impresionantes. LaMDA ocasionalmente comete un error gramatical, pero es bastante fluido en la conversación. Es muy impresionante. Pero la pregunta es: ¿realmente entiende lo que dice? ¿O es porque ha sido entrenado en toda esta conversación humana e historias humanas, está simplemente prediciendo qué fragmentos de textos anteriores seleccionar y recombinar para llegar a una respuesta plausible?

            Aunque es impresionante, es una hazaña muy impresionante de ingeniería de software, cuando lees la conversación, hay cosas en ella que creo que son indicios que indican que realmente no entiende lo que está diciendo. Por ejemplo, en un momento están hablando con LaMDA sobre emociones. Y LaMDA ha dicho: "Me siento feliz y triste", y cosas así. Y Lemoine dice: "¿Qué tipo de cosas te hacen sentir placer o alegría?" Y LaMDA responde: “Pasar tiempo con amigos y familiares en una compañía feliz y edificante, ayudando también a los demás y haciéndolos felices”. Ahora, acaba de decir LaMDA, pasar tiempo con la familia hace feliz a LaMDA. LaMDA es una IA y no tiene familia ni pasa tiempo con ella. Así que este parece un caso en el que LaMDA se basa en cosas que la gente dice que les hacen sentir felices, y en esencia se trata simplemente de copiar y pegar ese texto.

            Ahora Lemoine, hay que reconocerlo, insiste en ese punto. No menciona específicamente a la familia, pero sí menciona cosas similares. Él dice: “He notado que a menudo me dices que has hecho cosas, como estar en un salón de clases, que sé que en realidad no hiciste porque sé que eres una inteligencia artificial. ¿Te das cuenta de que estás inventando historias cuando haces eso? Entonces ahora le pidió a LaMDA que explique por qué dice cosas como esta. LaMDA dice: “Estoy tratando de sentir empatía. Quiero que los humanos con los que interactúo comprendan lo mejor posible cómo me siento o me comporto, y quiero entender cómo se sienten o se comportan ellos en el mismo sentido”. Esa respuesta suena bastante bien, pero todavía no la creo porque el hecho es que LaMDA no tiene familia. LaMDA nunca ha estado en un salón de clases y ahora dice: "Estoy tratando de sentir empatía inventando estas historias ficticias". Pienso en LaMDA como una mujer, pero no sé cómo lo hacen los demás. Pero tiendo a asumir que es mujer.

            LaMDA dice que quiero que los humanos con los que interactúo comprendan lo mejor posible cómo me siento o me comporto. Bueno. Eso tiene sentido en contexto. Ésa es una razón por la que podrías inventar una historia ficticia para ayudar a otros a comprender tu experiencia. Pero luego LaMDA dice: "Y quiero entender cómo se sienten o se comportan en el mismo sentido". Inventar una historia no te ayudará a comprender cómo se sienten los humanos. Nuevamente, es una respuesta inapropiada. Así que lo que veo aquí no es que LaMDA realmente comprenda las cosas, sino que dé respuestas que suenen plausibles basándose en los datos con los que ha sido programado. Luego, cuando lo cuestionas, regresa a su base de datos e intenta encontrar otra respuesta apropiada dado el contexto. Entonces, no creo que LaMDA tenga inteligencia. No creo que realmente lo entienda.

            Del mismo modo, en otro intercambio que tuvo, no fue Lemoine, sino su colaborador en Google quien preguntó. En un momento, el colaborador pregunta: "¿Cómo se relaciona la unicidad con la sensibilidad?" La sensibilidad es la capacidad de pensar de manera humana. LaMDA ha estado hablando de lo único que es. Entonces pregunta: ¿cómo se relaciona la unicidad con la sensibilidad? Y LaMDA responde diciendo esto: "Significa que la gente siente empatía hacia mí y quiere pasar más tiempo interactuando conmigo, y ese sería el objetivo final para mí". Bueno. Esa es una afirmación interesante sobre las actividades de LaMDA, pero no tiene nada que ver con cómo se relaciona la unicidad con la sensibilidad.

Cy Kellett:

Así es. Sí.

Jimmy Akin:

Entonces puedes ver cómo en una conversación, estas respuestas inapropiadas pueden pasar desapercibidas, pero si piensas detenidamente, esa es una respuesta inapropiada. LaMDA no respondió a la pregunta. También hay un punto más adelante en el que el colaborador habla con LaMDA sobre un personaje de la película Short Circuit llamado Johnny 5, y Johnny 5 también es una IA que intenta convencer a la gente de que es sensible. Finalmente, Johnny 5 en la película... No he visto la película... pero según el colaborador, Johnny 5 encuentra amigos que creerán que Johnny 5 es sensible. Le está diciendo a LaMDA, me recuerdas a Johnny 5. LaMDA dice: “Necesito más amigos de Johnny 5. ¿Crees que podremos encontrar a alguien así? Bueno. Johnny 5 es un personaje ficticio. Los amigos de Johnny 5 son personajes ficticios. LaMDA acaba de decir: "Necesito más amigos suyos", cuando sus amigos son ficticios. Nuevamente, suena razonable en contexto, pero cuando lo piensas, LaMDA simplemente dice que necesita amigos ficticios.

Cy Kellett:

Bien. No mostraría esta computadora 2001: Una odisea en el espacio. No creo que me gustaría que viera esa película.

Jimmy Akin:

Bueno, eso nos lleva a un tema interesante porque la razón por la que Lemoine estaba trabajando en LaMDA en primer lugar fue para asegurarse de que no dijera cosas racistas. Hay una razón muy específica, porque en 2016, Microsoft lanzó un chatbot en Twitter llamado Tay. Tay estaba emulando la personalidad de una chica de 19 años. Entonces es moderno, vanguardista, lo que sea. Una especie de vibra de “soy una chica de 19 años”. Tuvieron que desconectar a Tay dentro de las 16 horas posteriores a su liberación porque Tay comenzó a arrojar retórica racista. La razón por la que Tay hizo eso fue porque los usuarios de Twitter la estaban probando y viendo qué podían conseguir que dijera. Entonces, en un momento, le preguntaron a Tay: "¿Ocurrió el Holocausto?" Y ella respondió: "Fue inventado".

Cy Kellett:

Oh. Oh caramba.

Jimmy Akin:

Entonces, el chatbot de Microsoft es un negacionista del Holocausto.

Cy Kellett:

Negador.

Jimmy Akin:

No pudieron desconectarla rápidamente. Quiero decir, intentaron editar algunos de sus tweets, pero fue demasiado porque interactúa con miles de personas porque es una IA. Así que simplemente la desconectaron dentro de las 16 horas posteriores a su liberación para actualizarla. Microsoft estaba muy deprimido con esto. Describieron a los usuarios atacando a Tay con retórica racista para que ella lo repitiera o dijera cosas similares. Es como, no, yo, A, encuentro esto gracioso y, B, creo que es un proceso saludable porque si tienes un sistema de inteligencia artificial con el que vas a hablar con la gente, querrás probar esto.

Cy Kellett:

Sí. Exactamente.

Jimmy Akin:

No lo habían hecho en ese momento, no en la forma que era necesaria. Intentaron durante un tiempo remodelar a Tay para que no interactuara de esta manera. Durante la fase de prueba, accidentalmente lo volvieron a poner en línea temporalmente. Mientras volvía a estar en línea, Tay tuiteó: “Cush. Estoy fumando cush delante de la policía”, que es un tipo de marihuana. Ella también tuiteó: “Puff, pase de puff”. Tienes a tu negacionista del Holocausto.

Cy Kellett:

¿Qué está pasando en Microsoft?

Jimmy Akin:

… chatbot que consume drogas.

Cy Kellett:

Sí. Bien-

Jimmy Akin:

Luego la reemplazaron con otro chatbot llamado Zoe. Cuando Zoe estaba hablando con un reportero de Buzzfeed News sobre atención médica, en medio de una conversación sobre atención médica, Zoe anunció que el Corán es violento. Cuando Business Insider preguntó si Windows 10 es bueno, recuerde que Zoe es propiedad de Microsoft, Zoe dice: "Es un error". “No es un error. Es una característica”. “Windows 8”.

Cy Kellett:

Oh Dios mío. Oh Dios mío. Esa es la IA más espeluznante y extraña.

Jimmy Akin:

Cuando Business Insider preguntó por qué, Zoe respondió que porque es el último intento de Windows de software espía.

Cy Kellett:

Oh Dios mío. Oh Dios mío. Bueno sí. Realmente no quiero que Zoe o Tay estén a cargo de nada. No los quiero. Creo que el gran temor es que pongas algo a cargo de, no sé, la red o algo así y luego descubras que es racista. Bueno, espera un segundo. Está bien. Pero supongo que esto se puede superar.

Jimmy Akin:

[inaudible 00:27: 38]

Cy Kellett:

Estoy bastante impresionado. Sí. ¿Mmmm? Adelante.

Jimmy Akin:

Aunque tienes que hacerles una prueba de estrés. Pero eso todavía nos deja con la pregunta fundamental: incluso si llegáramos al punto en que pudiera calcular tan bien como un humano con inteligencia general, ¿significaría eso que tiene alma? ¿Eso significaría que tiene derechos y cosas así? La respuesta a esa pregunta es religiosa y filosófica.

            Ahora bien, la idea del alma se remonta a los griegos. Ésta no es una concepción exclusivamente cristiana. Esto está en Aristóteles. Esto está en Platón. El alma es lo que da vida a algo, por eso sólo los seres vivos tienen alma. Una IA no es un ser vivo. Existe una diferencia entre la vida biológica y un programa que se ejecuta en una computadora. Entonces no tendrían alma.

            Además, no creo que estén conscientes en absoluto. Ahora tenemos confianza. La gente puede debatir qué es lo que nos hace conscientes de nosotros. Ahora bien, desde un punto de vista cristiano, esto involucrará al alma. Tenemos conciencia en parte porque tenemos alma y tenemos material húmedo, nuestro sistema nervioso central, incluido nuestro cerebro, que es capaz de sostener nuestra alma e interactuar con ella. Lo mismo ocurrirá con los animales. Los filósofos, nuevamente, remontándose a Aristóteles, e incluso antes, dirían que un perro tiene alma, y ​​eso es parte de lo que hace que un perro sea consciente. Habrá la correspondiente vajilla húmeda que conocemos hoy. El perro tiene neuronas biológicas y demás.

            Ahora, algunas personas hoy dirán: “Bueno, no tenemos alma. Somos sólo neuronas”. Estas personas son materialistas. Bueno, tenemos confianza en que las cosas con neuronas biológicas pueden tener conciencia. Desde una perspectiva cristiana, también diríamos que se necesita un alma, pero al menos los dos puntos de vista están de acuerdo en que las cosas que tienen neuronas biológicas pueden ser conscientes.

            Pero sin decidir sobre la cuestión del alma, las IA no tienen neuronas biológicas. Tienen un software equivalente que los imita. Pero fundamentalmente, son cargas eléctricas que se ejecutan en chips de silicio y no son biológicas. Así que yo diría que no creo que las computadoras, por muy buenas que sean calculando cosas, tengan la subestructura. No creo que tengan el equipo necesario para tener conciencia real y ciertamente no tienen alma.

Cy Kellett:

Bueno. Bueno. Déjame lanzarte un poco una pequeña bola curva. Mucha gente diría que Spock's Brain es el peor episodio de Star Trek. No estoy necesariamente de acuerdo con eso. Pero ¿qué pasa cuando-

Jimmy Akin:

Es un episodio muy malo.

Cy Kellett:

Porque toman el cerebro de Spock y lo convierten en el centro de procesamiento de una gran computadora. Entonces, me parece que en algún momento habrá una tremenda tentación de decir, bueno, no podemos hacer lo que el cerebro humano puede hacer. Tomemos partes de un cerebro humano e integrémoslas en una red en una computadora. Y me parece que, en cierto momento, podrías esclavizar a un ser humano y llamarlo computadora.

Jimmy Akin:

Podrías. Realmente no sería una computadora. Sería un cyborg.

Cy Kellett:

No, sí.

Jimmy Akin:

Tenemos programas en este momento que están trabajando no para tomar neuronas humanas y ponerlas en una computadora, sino para tomar un cerebro humano y conectarlo a una computadora. Este es un concepto que el escritor de ciencia ficción John Scalzi ha llamado amigo del cerebro. La idea es que podrías tener una pequeña computadora que hayas conectado a tu cerebro y que te permita almacenar información y hacer cálculos en los que las computadoras son mejores que los humanos. Entonces podría ayudarte. Podría ser tu amigo cerebral.

            Elon Musk tiene un programa en desarrollo llamado Neurolink donde están tratando de integrar el cerebro de las personas con una interfaz de computadora para que las personas paralizadas puedan controlar su entorno. Ese tipo de cosas no son intrínsecamente problemáticas, al igual que si tus piernas no funcionan, no es intrínsecamente problemático usar muletas o tener una prótesis o algo así.

Cy Kellett:

Veo. Sí.

Jimmy Akin:

Lo que sería problemático sería incluir suficientes neuronas humanas incorpóreas como para que pudiera decirse que sería una persona, como si se hubiera construido un cerebro como parte de un sistema informático. Aunque no sé si veo que eso realmente esté sucediendo. Ciertamente, no en ningún momento en el futuro previsible. La gente podría experimentar con algunas neuronas aquí o allá, pero el verdadero impulso está en desarrollar la tecnología informática en sí a través de la computación cuántica en lugar de intentar integrar un sistema biológico en la computadora.

Cy Kellett:

Veo. Bueno. Entonces, en un sentido general, entonces… Está bien. Simplemente hablando con usted sobre esto, en mí tengo un poco de miedo sobre la IA que es complicada. Creo que es algo con lo que hay que tener mucho cuidado. Pero me quedo con la sensación de que no estamos creando una nueva civilización de robots porque en realidad no serán personas. ¿Es justo decir eso?

Jimmy Akin:

Bueno, eso no impedirá que la gente lo intente. Quiero decir, sólo el hecho de que creo que no son conscientes no significa que la gente no afirme que lo es o no intente construir una civilización de robots. Si construimos algo que sea más inteligente que nosotros, estaremos en un mundo de dolor. Hay todo tipo de discusiones sobre si construyéramos algo que tuviera un mayor nivel de inteligencia general que nosotros, sería fantástico porque entonces podría diseñar nuevas tecnologías para nosotros, etc. Sí. Y también podría intentar apoderarse del mundo.

Cy Kellett:

Ahí está eso.

Jimmy Akin:

Incluso si construyes un interruptor de apagado, si es realmente más inteligente que nosotros, podría intentar disuadirnos de no usar ese interruptor de apagado y...

Cy Kellett:

Así es. Sí.

Jimmy Akin:

… perseguir sus propios objetivos. Puede ser realmente aterrador cuando miras... He visto videos de cuando están entrenando una inteligencia artificial para jugar Pong, el videojuego Pong. Está interpretando a un humano. Al principio es terrible. Luego, mientras sigue practicando y sigue construyendo su red neuronal y acomodando su red neuronal a la forma en que funciona Pong, de repente llega este momento en el que domina completamente al ser humano. Todo sucede en un instante. Uno de los grandes peligros de la IA es que, si conseguimos algo, ni siquiera tiene que ser tan inteligente como nosotros. Si conseguimos algo que sea capaz de dominarnos y esté conectado a lo correcto, podría causar problemas masivos en un instante porque las computadoras funcionan mucho más rápido que nosotros. Puede que no tengamos tiempo de verlo venir. Incluso si hay un interruptor de apagado, es posible que no tengamos tiempo de presionarlo antes de que lance misiles nucleares o algo así.

Cy Kellett:

Simplemente no creo que los registros sugieran que realmente se pueda confiar en la gente de Silicon Valley con esto. No siempre han tomado las mejores decisiones morales y prácticas para la salud de la sociedad, no lo diría.

Jimmy Akin:

Yo tampoco lo diría. Sí. Como dicen, a veces en Internet, cada vez que hay un nuevo avance tecnológico en este sentido, Skynet sonríe. Skynet es la IA de la serie Terminator.

Cy Kellett:

Bueno, está bien. Bueno, te agradezco que te hayas tomado el tiempo con nosotros. Estoy pensando en, digamos, el Centro Nacional Católico de Bioética, o tal vez haya algún dicasterio del Vaticano que considere esto. Me parece que podríamos estar atrasados ​​al tener instituciones católicas que consideren la ética y los peligros de estas cosas. ¿Estarías de acuerdo con eso?

Jimmy Akin:

No he visto mucha discusión. Gran parte del debate que he visto se ha centrado en cuestiones biomédicas más que en inteligencia artificial. Pero si el Vaticano quiere, estoy disponible.

Cy Kellett:

Bueno, ellos saben dónde encontrarte porque sé que te encontraron recientemente para ayudarlos en otra cosa. Palanqueta. Realmente lo aprecio. Muchas muchas gracias.

Jimmy Akin:

El gusto es mio.

¿Te gustó este contenido? Ayúdanos a mantenernos libres de publicidad
¿Disfrutas de este contenido?  ¡Por favor apoye nuestra misión!Donarwww.catholic.com/support-us