La inteligencia artificial está de moda en este momento. Hay muchas noticias al respecto. Los motores de búsqueda están empezando a utilizarlo de una forma nueva. También lo son los robots. Y algunos hablan de una venida singularidad.
¿Qué nos dicen la fe y la razón sobre todo esto?
¿Puede un robot tener alma? ¿Hay algo de verdad en películas de ciencia ficción como Blade Runner? ¿Llega un punto en el que deberíamos considerar a las inteligencias artificiales “nuestro prójimo” (ver Lucas 10:29-37)? Echemos un vistazo a estas cuestiones.
Primero, ¿qué es la inteligencia artificial? Se puede definir de diferentes maneras, pero en pocas palabras, inteligencia artificial (IA) es la capacidad de las máquinas para imitar el desempeño de los humanos y otros organismos vivos en la realización de tareas que requieren el uso de inteligencia.
Hay muchas formas de IA y la mayoría de ellas son muy limitadas. Las primeras máquinas sumadoras mecánicas eran capaces de realizar proezas matemáticas simples que de otro modo requerían inteligencia humana, por lo que podían clasificarse como una forma de IA primitiva.
Hoy en día, algunos aspectos de la IA se utilizan en todo tipo de dispositivos, desde computadoras hasta teléfonos inteligentes, lavadoras y refrigeradores. Básicamente, cualquier cosa que tenga un chip de computadora tiene algún tipo de IA en funcionamiento.
Sin embargo, la gente tiende a reservar el término para aplicaciones más impresionantes, y especialmente aquellas que aún no han sido desarrolladas. El "santo grial" de la investigación de la IA está produciendo lo que se conoce como inteligencia general artificial or IA fuerte. Esto a menudo se entiende como dotar a un sistema mecánico de la capacidad de realizar tareas basadas en inteligencia tan bien o mejor que un humano.
¿Qué es la la singularidad? Algunos autores hablan de una venida singularidad tecnológica—Es decir, un punto en el que el desarrollo tecnológico se vuelve incontrolable e irreversible, transformando la vida y la cultura humanas de maneras imprevisibles.
El desarrollo de una IA potente podría desempeñar un papel en este evento. El autor de ciencia ficción Vernor Vinge considera que la singularidad implica el desarrollo de una IA potente que puede seguir mejorando, llevándola a superar la inteligencia humana.
Algunos autores han propuesto que la singularidad está cerca, que es posible que estemos viviendo sus primeras fases y que realmente se afianzará entre 2030 y 2045.
Sin embargo, otros se han mostrado escépticos al respecto, argumentando que no estamos ni cerca de tener una IA fuerte y que es posible que nunca podamos desarrollarla. Además, se puede argumentar que las tendencias que conducirían a una singularidad pueden fracasar.
Por ejemplo, La ley de moore(según el cual la potencia informática se duplica aproximadamente cada dos años) se está desmoronando o ya se ha desmoronado, y sin mejoras importantes y continuas en la potencia de las computadoras, desarrollar una IA potente o tener una singularidad sería considerablemente menos probable.
¿Pueden los robots tener alma? No. Desde la época de los antiguos filósofos griegos como Aristóteles, el alma ha sido reconocida como lo que da vida al cuerpo y, como señala Santiago 2:26, “el cuerpo sin el espíritu está muerto”.
Las almas están asociadas con organismos vivos y los robots y las computadoras no están vivos. Por lo tanto, no tienen ni pueden tener alma.
Esto no quiere decir que no se pueda desarrollar vida artificial. Ésa es una cuestión aparte, y son concebibles químicas de vida alternativas. Sin embargo, las entidades que estarían realmente vivas no serían computadoras o robots tal como se entienden actualmente.
¿Hay algo de verdad en películas como Blade Runner? Hay verdades contenidas en todas las formas de ficción, pero si la pregunta significa: "¿Es probable que tengamos replicantes como los que se muestran en Blade Runner?”, entonces la respuesta es: “No en el corto plazo”.
En la película Blade Runner, el personaje de Harrison Ford caza “replicantes”, criaturas artificiales que sólo pueden distinguirse de los humanos mediante pistas muy sutiles inducidas psicológicamente mediante pruebas.
Estos seres son aparentemente de naturaleza biológica. Si no lo fueran, si fueran simplemente robots, entonces no sería necesario aplicar una prueba psicológica. Podrías simplemente realizar lo que podría llamarse la “prueba de Shylock” de la obra de Shakespeare. El mercader de Venecia.
En la obra, Shylock sostiene que los judíos son como otras personas al decir: "Si nos pinchas, ¿no sangramos?". Todo lo que necesitas hacer para desenmascarar a un robot con apariencia humana (es decir, un androide) es pincharlo con una aguja, ver si sangra y luego hacerle un análisis de sangre.
Al parecer, una prueba de este tipo no desenmascararía a un replicante. Aunque estamos empezando a construir formas de vida sintéticas (se las conoce como xenobots), no estamos ni cerca de poder construir una forma de vida sintética que pueda pasar por humana. Tampoco estamos ni cerca de poder construir androides que puedan hacerlo.
¿Llega un punto en el que deberíamos considerar a las inteligencias artificiales “nuestras vecinas”? La respuesta corta es no, pero viene con una salvedad.
Para ver los principios implicados, consideremos el caso de los animales. Los animales no humanos no tienen derechos, pero eso no significa que podamos tratarlos con total indiferencia. Podemos utilizarlos para satisfacer las necesidades humanas, pero como Catecismo afirma, “es contrario a la dignidad humana hacer que los animales sufran o mueran innecesariamente” (2418).
La razón por la que no podemos ser crueles sin sentido con los animales es que hacerlo es contrario a humano dignidad, es decir, hay un defecto en el ser humano que trata a los animales con total crueldad. Incluso si un perro no tiene derechos intrínsecos, que un humano torture a un cachorro por diversión revela que hay algo roto en el ser humano.
Por supuesto, las IA no tienen la capacidad de sufrir, pero pueden actuar como si lo hicieran. Estimular deliberadamente una IA de una manera que hiciera que pareciera sufrir (y, digamos, suplicar clemencia) sería el equivalente a jugar deliberadamente un videojuego basado en la tortura en el que el jugador inflige sufrimiento intencional a una víctima simulada por diversión. De hecho, dado que los videojuegos funcionan con motores de inteligencia artificial, eso es exactamente qué estaría haciendo el jugador.
Sin embargo, reconoceríamos que algo anda mal con una persona que obtiene placer torturando deliberadamente a un personaje de videojuego (por ejemplo, arrancándole las uñas para oírlo gritar y suplicar).
La posición de las IA es, por tanto, similar a la posición de los animales. Las IA no tienen derechos, pueden usarse para satisfacer necesidades humanas y no deben considerarse equivalentes a los seres humanos. No son “nuestros vecinos”, por muy inteligentes que se vuelvan. Sin embargo, en la medida en que simulen respuestas humanas, debemos interactuar con ellos de una manera que no sea cruel.
No por su bien, sino por el nuestro.