En esta breve investigación se explorará el concepto de inteligencia artificial y su relación con la filosofía, en particular con conceptos dentro del ámbito de la filosofía de la mente, y se postularán las principales preguntas que surgen de esta relación
INTELIGENCIA ARTIFICIAL
La tecnología avanza a gran velocidad. Mientras que la televisión, la radio y el teléfono fueron adoptados en décadas, tecnologías más recientes como la computadora, internet y los celulares, se adoptaron en menos de una década. Los procesos evolutivos, entre ellos la biología y tecnología, se aceleran. Operan creando una capacidad para luego utilizarla para dar el próximo paso. El primer gran paso en la evolución biológica, el ADN, necesitó billones de años, pero usando esa base, la Explosión Cámbrica, donde todos los planos corpóreos de los animales evolucionaron, llevó sólo 10 millones de años: fue 200 veces más rápida. Luego la evolución usó esos planos corpóreos para evolucionar en funciones cognitivas más elevadas, y la evolución biológica continuó acelerando. (Kurzweil, 2005)
Los primeros pasos de la evolución tecnológica tomaron miles de años: herramientas de piedra, fuego, la rueda. Al igual que en la evolución biológica, usamos la última generación de tecnología para crear la próxima. La imprenta, por ejemplo, llevó un siglo en ser adoptada, mientras que las computadoras menos de 10 años. Las tecnologías de la información duplican su capacidad, mientras disminuye su precio cada año. Ray Kurzweil, experto en tecnología, calcula que hacia el año al 2029 “se habrá completado la ingeniería inversa del cerebro humano y mil dólares de computación serán mucho más potentes que el cerebro humano en términos de capacidad básica cruda. Las computadoras combinarán los poderes sutiles de reconocimiento global de la inteligencia humana con formas en las que las máquinas ya son superiores, en términos de realizar pensamiento analítico, recordando billones de hechos de forma precisa” (Kurzweil, 2005). Estamos hablando de la inminencia del pleno surgimiento de la Inteligencia artificial y la posibilidad de que supere a la inteligencia humana.
La inteligencia artificial (AI) se diferencia a la inteligencia natural es que es desplegada por máquina y no humanos o animales. En ciencias computacionales, la AI es definida como el estudio de “agentes inteligentes”: cualquier aparato que perciba su ambiente y tome acción para maximizar su probabilidad de alcanzar una meta. De forma más coloquial, se usa el termino AI cuando las máquinas imitan funciones cognitivas asociadas con la mente humana, como aprende o resolver problemas (Hauser, 2017).
La AI tiene una amplia gama de aplicaciones: vehículos autónomos, diagnósticos médicos, creación de arte, generación de teoremas matemáticos, jugar juegos como ajedrez o go, motores de búsqueda en la web, asistentes virtuales, reconocimiento de voz e imágenes, predicciones judiciales, entre muchas otras. Las mejores perspectivas muestra a la AI como la principal herramienta para solucionar problemas de largo alcance para el hombre: envejecimiento, cura de enfermedades, eficiencia en el uso de recursos que permita mayor crecimiento económico y superación de la pobreza, entre otros. Pero también tiene potenciales peligros, que pueden venir de dos formas: que la AI sea programada para ejecutar algo devastador o puede que sea programada para algo beneficioso, pero que desarrolle un método destructivo para alcanzar su meta. (Tegmark, 2017). Algunos riesgos específicos son: pérdida de empleos, uso de la AI para manipular y restar libertades, pérdida de control por parte de los creadores, la AI crea una AI superior y la evolución toma ese rumbo, significando el fin de la era del hombre (Melnikov, 2016).
La ciencia de la AI puede ser caracterizada como el “intentar de descubrir e implementar los medios computacionales para hacer máquinas que se comporten en formas que sería consideradas inteligentes si un humano se comportara de esa forma” (John McCarthy), o “hacer que las maquinas hagan cosas que requerirían inteligencia si fueran hechas por el hombre” “(Marvin Minsky). Estas formulaciones presentan las dos formas de AI: débil (weak) y fuerte (strong). La AI débil involucra que las máquinas actúen de forma inteligente. La AI fuerte, en cambio, requiere que estas acciones reflejen verdadera inteligencia. Para algunos, la AI fuerte reconoce que ciertas computaciones artificiales son pensamiento. Para otros, adheridos al computacionalismo, todos los pensamientos son computación. (Hauser, 2017).
¿Qué es inteligencia?
En este punto de la discusión, es importante tratar de profundizar en el concepto de inteligencia. Ha habido numerosos intentos de diseñar inteligencia del mismo tipo que la que despliega un ser humano, pero hay que tener en cuenta que cada investigador aproxima la tarea con una propia concepción del concepto. Sin embargo, los intentos han sido infructuosos al ser comparados con la noción de inteligencia general. Turing postulaba que no era difícil establecer las condiciones mínimas de la inteligencia general: bastaba con que una máquina pudiera pretender ser un humano por media hora a los ojos de un observador sofisticado. (McCarthy & Hayes, 1969).
Una forma de caracterizar la inteligencia es dando una definición puramente conductual o de “caja negra”. En este caso, se dirá que si una máquina tiene inteligencia si resuelve ciertas clases de problemas que requieren la inteligencia de un humano, o sobrevive en un ambiente intelectualmente demandante. Otra forma de definirla es usar ciertas estructuras que aparecen como evidente como resultado de la introspección (que tenemos conocimiento de hechos y que los manipulamos), lo cual tiene dos riesgos. El primero, es que podríamos estar equivocados respecto a nuestra propia imagen sobre nuestros modelos mentales. El segundo, es que podría haber entidades que satisfacen el criterio conductual, pero no están organizadas de esta manera. Sin embargo, se considera que la construcción de máquinas inteligentes como “manipuladoras de hechos”, es el mejor acercamiento tanto para construir inteligencia artificial como para entender la inteligencia natural (McCarthy & Hayes, 1969).
En ese sentido, el interés está colocado en la representación o modelo del mundo que tenga la entidad inteligente, en base al cual podrían contestarse preguntas del tipo: ¿qué pasará a continuación en una situación P? (predicción de efectos, noción de relaciones causa efecto), ¿qué pasará si hago X ¿ (predicción en primera persona?, ¿cuánto es 1+1? (modelos matemáticos), ¿qué querrá P ¿ (predicción en tercera persona, atribución mental, lectura de mentes), ¿puedo encontrar una forma de hacer X o necesito esa información de una fuente externa? (aprendizaje). En base a esto, se podría decir que una entidad es inteligente si una tiene un modelo adecuado del mundo, que incluye entendimiento de matemáticas, de sus propias metas y de otros procesos mentales. Así mismo, si es suficientemente astuta para responder preguntas en base a su propio modelo, si puede obtener información que no tiene del mundo externo, y si consigue accionar en el mundo externo de acuerdo a sus objetivos. (McCarthy & Hayes, 1969)
Esta definición de inteligencia tiene dos partes: la epistemológica y la heurística. La primera es la representación del mundo de tal manera que la solución de problema se sigue de los hechos expresados en la representación. La segunda, es el mecanismo que, en case a la información, resuelve el problema y decide qué hacer. Surgen cuatros problemas en la construcción de la parte epistemológica de la inteligencia artificial (McCarthy & Hayes, 1969):
- ¿Qué tipo de representación general del mundo permite la incorporación de observaciones y leyes científicas a medida que son descubiertas?
- ¿Con qué otras categorías se debe proveer al modelo, además la representación del mundo físico tridimensional? Por ejemplo, sistemas matemáticos, metas, etc.
- ¿Cómo puede usarse las observaciones para adquirir conocimiento y cómo puede procurarse otros tipos de conocimiento no observacional? Es decir, cómo aprenderá.
- ¿En qué tipo de notación interna se expresará el conocimiento del Sistema?
Vemos que la inteligencia artificial requiere de una sería de consideraciones centrales dentro del campo de la filosofía: modelo de representación del mundo, modelo de atribución y predicción, forma de aprendizaje, generación y uso del conocimiento, lenguaje, etc. Exploraremos un poco más el primer aspecto necesario de la inteligencia artificial antes de dar un salto al ámbito de la filosofía de la mente.
Representaciones del mundo
El primer paso para diseño de la representación del mundo de una máquina inteligente, es decidir que estructura del mundo se elegirá y qué información de este y de sus leyes será representada en la máquina. Esto dependerá de si se toman leyes generales o hechos específicos. Las representaciones pueden cumplir tres criterios de adecuación: metafísico, epistemológico y heurístico.
La representación es metafísicamente adecuada si el mundo el mundo puede tener la forma de la representación sin contradecir los hechos del aspecto de la realidad que son de interés. Es epistemológicamente adecuada, para una persona o una máquina, si puede usarse pragmáticamente para expresar hechos que uno ya tiene sobre el aspecto del mundo. Finalmente, es heurísticamente adecuada si los procesos de razonamiento que se usan para resolver un problema pueden ser expresados en el lenguaje.
CONCEPTOS DE LA FILOSOFÍA DE LA MENTE
Después de haber visto algunos aspectos, requerimientos y retos generales para la creación de inteligencia artificial, se repasarán conceptos del campo de la filosofía de la mente relevantes y vinculados a la AI.
Teoría de la mente
La teoría de la mente (ToM) es la habilidad de atribuir estados mentales (como comportamientos, deseos, intenciones, conocimientos, emociones) a uno mismo y a los demás y entender que los deseos, intenciones, creencias de los otros son diferentes a las de uno (Premack & Woodruff, 1978)
Una pregunta importante en el marco de esta exposición es si los humanos nacen con una teoría de la mente o si la desarrollan. En ese sentido, será relevante explorar si los niños tienen una teoría de la mente, qué saben sobre su propia mente y la de otro y cómo y cuán llegan a saberlo. Es sabido que a cierta edad, los niños ya son capaces de expresarse sobre sus pensamientos, deseos, emociones y otros estados mentales, y que logra atribuir sus compartimientos a dichos estados mentales (por ejemplo: lloré porque me enoja que me hayan quitado el juguete). Así mismo, puede opinar sobre la mente de otros y anticipar sus conductas. Es decir, en un momento del desarrollo de la persona, tiene conocimientos psicológicos intuitivos. A este campo de conocimiento se le llama psicología folk, el cuál asume que las personas tienen mente, entendida como el conjunto de pensamientos, creencias, y otros estados mentales; y que el comportamiento de la gente surge del contenido de ella. (Garcia, 2007)
La mente debe entenderse como teoría, en oposición a lo que es directamente observable. Es posible hacer una analogía entre la mente con los conceptos y teorías usados en la ciencia para hacer interpretaciones, predicciones y manipular su respectivo campo de la realidad, pues en ninguno caso estas teorías son observables. El acto de atribuir mente a otro es teórico, pues si bien no es observable, permite interpretar, predecir y manipular.
¿Cómo se va desarrollando esta capacidad? Al nacer los niños parecieran contar con cierta clase de conocimiento estructural sobre los rostros humanos, que les permite hacer predicción innatas: “venimos al mundo equipados con unas estructuras y disposiciones cognitivas, que nos capacitan para elaborar modelos de mundo, representaciones adecuadas de la realidad” (Garcia Garcia, 2007, pág. 14). Alrededor del primer año de edad, los niños muestran interacciones comunicativas intencionales, y ya pueden resolver un problema cómo alcanzar un objeto que está fuera de su alcance valiéndose de otro objeto o indicando a otra persona que lo haga por él. Ya por el año y medio, muestran la capacidad simbólica y los juegos de ficción: son “la primera manifestación conductual de que el niño tiene una teoría de la mente” (Garcia Garcia, 2007, pág. 16). Estos juegos implican otro concepto importante: la actitud proposicional. Estas son expresadas expresan mediante verbos que reflejan estados de la mente como pensar, creer, desear. Las frases de contenido proposicional son descripciones del mundo que no son necesariamente son correctas o verdaderas, pues expresan la relación del sujeto con el mundo.
En algún momento entre el año y medio y los 5 años, las personas inician la comprensión la mente de otros y de la suya, y atribuyen pensamientos, deseos, sentimientos como causa de sus comportamientos y de los demás. Los investigadores de la mente en esta etapa del desarrollo usan el paradigma de la falsa creencia: a los tres años los niños no consiguen responder el problema y su respuesta se basa a la situación real que conocen. No consiguen entender que el otro se comportará según su creencia falsa. Sin embargo, un año más tarde, ya no muestran dificultad para resolver la tarea.
Como se ha mencionado, la teoría de la mente también sirve para manipular o cooperar, y no solo para interpretar y explicar. A la edad de 5, el niño utiliza el engaño de forma espontánea y natural: “todo parece indicar que a los cinco años los niños han elaborado una teoría de la mente muy compleja, que seguirán enriqueciendo en años posteriores” (Garcia Garcia, 2007, pág. 18)
Teoría Representacional de la Mente
La teoría representacional de la mente (RTM) toma como punto de partida los estados mentales del sentido común, como los pensamientos, creencias, deseos. Estos estados tienen intencionalidad y pueden ser evaluados respecto a su consistencia, verdad, precisión, entre otras propiedad. La RTM define estos estados mentales como relaciones a representaciones mentales, y explica su intencionalidad en términos de las propiedades semánticas de estas representaciones. Así mismo, la RTM comprende a los procesos del pensamiento, razonamiento e imaginación como secuencias de estados mentales: inferir una proposición “q” a partir de las proposiciones “p” y “si p entonces q”, involucra tener una secuencia de pensamientos de la forma, “p”, “si p entonces q”, “q” (Pitt, 2012). Un ejemplo de esto es imaginar donde caerá una pelota que es lanzada por un jugador de futbol americano.
Los filósofos contemporáneos de la mente han supuesto que la mente puede ser naturalizada, es decir, que puede ser explicada (y no solo comprendida) desde la ciencia natural, de forma que los estados y procesos mentales serían efectos del cerebro y del sistema nervioso central. Así, hay varias sub-disciplinas de la ciencia cognitiva que proponen diferentes estructuras y procesos que no estarían directamente implicados (serían independientes) de los procesos y estados mentales. Sin embargo, sigue primando la noción generalizada de que los procesos y estados de la mente deben ser explicados en términos de representación mental (Pitt, 2012).
Los debates filosóficos más recientes sobre las representaciones mentales están centrado alrededor de la existencia de actitudes proposicionales y la determinación de sus contenidos. Dentro de la ciencia cognitiva, el debate está centrado en la arquitectura computacional del cerebro y del sistema nervioso, y en la compatibilidad entre las nociones científicas y del sentido común (folk) de la mentalidad.
Actitudes Proposicionales
Mencionaremos dos corrientes respecto a las actitudes proposicionales: los realistas intencionales (como Drestke y Fodor), y los eliminacioncitas intencional (Churchland). Los primeros indican que las generalizaciones que utilizamos en la vida diaria para predecir y explicar el comportamiento de otro (es decir, las generalizaciones de la psicología folk), son efectivas e indispensables. Esto significa que las creencias, deseos, miedo (actitudes proposicionales) de una persona son un indicador confiable de lo que ella hará. Más aún, no tendríamos otra manera de interpretar y dar sentido de nuestros comportamientos que aplicando las generalizaciones respectivas a dichos estados mentales intencionales (Pitt, 2012).
Los realistas intencionales por otro lado, postulan que tales actitudes proposicionales no están implicadas en la explicación y predicción exitosa de nuestros comportamientos. Churchland indica que tales generalizaciones no tienen el carácter de leyes causales/explicativas sino que tienen un estatus inferior, menos empírico, por ejemplo: principios normativos, reglas del lenguaje o verdades analíticas (Churchland, 1988). Argumenta que la psicología folk no logra ser incorporada en las teorías científicas modernas, y que no resistirá el paso del tiempo.
La Teoría Computacional de la Mente
La Teoría Computacional de la Mente (CTM) propone que el cerebro es una especie de computador y que los procesos mentales son computaciones. Los estados cognitivos están constituidos por relaciones computacionales a representaciones mentales de distinta índole, y que los procesos cognitivos son secuencias de tales estados. La CTM desarrolla la teoría representacional de la mente tratando de explicar todos los estados y procesos psicológicos en términos de representaciones mentales. Los científicos cognitivos han propuesto varios tipos de representaciones mentales mientras desarrollaban teorías empíricas sobre el hombre y modelos cognitivos implementables en sistemas de información artificial. Algunas de estas representaciones podrían relacionarse con estados de la psicología folk, pero otras, llamadas sub personales (subconscientes), no. Muchos filósofos consideran que la CTM ofrece las mejores explicaciones científicas para la cognición y el comportamiento (monismo metodológico), pero aún no hay acuerdo sobre si tales explicaciones validarán las explicaciones de la psicología popular (Pitt, 2012).
Lectura de Mentes (Mindreading)
El “mindreading” es entendido por la filosofía de la mente y por la ciencia cognitiva como la capacidad de representar, razonar y responder a los estados mentales de otros. Es fundamental para la vida social pues nos da la habilidad de predecir, explicar y coordinar con otros. Hay dos vertientes que intentan explicarla: la teoría de la teoría (TT) y el modelo de simulación mental (ST)
La teoría de la teoría postula cuando “leemos la mente” (atribución mental), accedemos y utilizamos una teoría sobre el comportamiento humano representada en nuestra mente. En ese sentido, es un ejercicio de razonamiento teórico. Por ejemplo, cuando predecimos un comportamiento, razonamos a partir de representaciones del pasado y circunstancias y comportamientos presentes del objeto de la predicción, para representar su compartimento futuro. La idea central de la TT de qué accedemos a una teoría representada en el cerebro conlleva a una serie de preguntas empíricas importantes (Ravenscroft, 2016):
- Sobre su forma de representación: ¿De qué forma está representado en el cerebro: en un medio como el lenguaje o en una red conexionista?
- Sobre su implementación ¿Cómo está implementada esta psicología popular en el cerebro? La investigación muestra que hay muchas áreas del cerebro relacionadas con el mindreading
- Sobre su contenido: ¿Cuál es el contenido de la psicología folk, qué estados y propiedades cuantifica y que regularidades postula?
- Sobre su estructura: ¿Es proto-científica o tiene otra forma?
- Sobre su estado: ¿podría ser completamente falsa?
- Sobre su desarrollo en niños: ¿tiene un patrón de desarrollo característico?
- Sobre su historia natural: ¿existente en alguno de nuestros parientes evolutivos?
- Sobre su universalidad: ¿cómo varía de cultura en cultura?
Simulación Mental
La simulación mental es la otra gran explicación de la atribución mental, que postula que representamos los estados mentales de otros en nuestra propia mente. Para ello, simulamos las creencias, deseos y metas de los otros y luego usamos esto como input en nuestros mecanismos de toma de decisión, para producir una decisión simulada. Esta decisión es proyectada o atribuida al sujeto en cuestión. En otras palabras “simular es ponernos en lugar de la otra persona o en sus zapatos” (Brunsteins, 2010)
La idea básica de la ST es que si los recursos que nuestro propio cerebro usa de guía para nuestro propio comportamiento pueden modificarse para ser funcionar como representaciones de los estados mentales de otros, entonces no necesitamos almacenar información general sobre los estados mentales y comportamientos de la gente. En palabras de Brunsteins: “Si bien las personas aplicamos muchas veces la inducción o ciertas generalizaciones en la predicción de las conductas, la simulación mental es la heurística principal para la interpretación, tanto de otros agentes como de nosotros mismos” (Brunsteins, 2008). La ST confronta la idea de una teoría psicología tácita que determina nuestra habilidad para la atribución mental (Barlassina, 2017).
AI Y FILOSOFÍA DE LA MENTE
Ahora que hemos cubierto algunos conceptos centrales de la filosofía de la mente, podemos explorar la relación con los retos y requerimiento de la inteligencia artificial, y plantear algunas preguntas propias que toman como punto de partida la primera y que deberán ser investigadas para el desarrollo de la última.
Las preguntas vigentes que surgen sobre la inteligencia artificial son idénticas o muy similares a las que surgen en filosofía. A continuación se presentan algún pre-suposición filosóficas para el desarrollo de un programa computacional que posea inteligencia general, formuladas por John McCarthy and Patrick J. Hayes en 1969 (McCarthy & Hayes, 1969):
- La existencia de un mundo físico que contiene máquinas inteligentes llamadas humanos
- La información del mundo se puede obtener a través de los sentidos y se puede expresar internamente
- Nuestra perspectiva de sentido común (popular) del mundo es aproximadamente correcta.
- La forma correcta de abordar los problemas generales de la metafísica y la epistemología no será empezar de certezas última (cogito, ergo sum), sino construir una máquina inteligente a partir de todos nuestros conocimientos y comparar sus creencias con nuestras observaciones y conocimientos.
- Se debe construir sistemas filosóficos completos y exhaustivos, en lugar de la tendencia actual a estudiar problemas de forma separada.
- El problema de libre albedrío toma una forma concreta: la AI debe usar el mismo proceso de razonamiento apelando al sentido común que usan las personas para tomar sus decisiones. Deberá poder evaluar opciones para determinar qué es lo que puede hacer, sin negar su naturaleza de máquina determinística.
- La primera tarea es una de las más difíciles: definir un modelo del mundo según el cual la AI actué en el mundo y con humanos y otras AI.
Como se ve, estas suposiciones son de carácter filosófico y pertenecen a los campos de la metafísica, epistemología y filosofía de la mente. También surgen preocupaciones de la filosofía moral. En la tradición occidental, la moral no depende de determinaciones externas sino también de estados internos de la mente: solo los individuos racionales son agentes morales, y solo los agentes sensibles son sujetos de dolor, daño y sufrimientos. Si la AI muestra inteligencia racional y reacciona a estímulos externos. ¿Debería considerársele un agente racional? ¿Debería tener derechos que la protejan del daño de otros? (Hauser, 2017).
Propondremos ahora una serie de cuestionamientos en base a los aspectos de la mente abordados por la filosofía, que describimos brevemente en la sección anterior.
En Teoría de la Mente se vio que el ser humano tiene la habilidad de atribuir estados mentales (deseos, intenciones, emociones) a uno mismo y a los demás, y que la investigación muestra que, si bien venimos equipados con unas estructuras y disposiciones cognitivas que nos capacitan para elaborar modelos de mundo, capacidad se va desarrollando paulatinamente en los primeros años de vida del niño. Para el campo de la AI cabe preguntar entonces si el diseño de una máquina inteligente involucra que tenga procesos orgánicos de desarrollo y aprendizaje. Es decir, que inicialmente, en su “nacimiento” aún no posea todas las capacidades de atribución pero si las estructuras innatas con las que nosotros las personas nacemos. ¿Podremos desarrollar un ente tecnológico con este potencial evolutivo? Como vimos en los requerimientos de la AI, hay que partir por asignarle un modelo de representación del mundo. En el caso del ser humano, pareciera ser que no nacemos con uno sino con la arquitectura mental que nos permite ir construyendo un modelo a partir de nuestras relaciones con el entorno físico y de nuestras interacciones sociales. En tal sentido, pareciera estar aún más remota la posibilidad de la creación de AI con inteligencia general, pues los desarrollos parecen estar centrados en AI que emulan comportamientos humanos pre-programados, es decir, weak AI.
La Teoría Representacional de la Mente define los estados mentales como relaciones a representaciones mentales, y explica su intencionalidad en términos de las propiedades semánticas de estas representaciones. El debate filosófico contemporáneo surge de contrastar esa perspectiva con la naturalización de la mente, es decir, con un modelo que explica los estados y procesos mentales como efectos fisiológicos (químicos y eléctricos) del cerebro. ¿Qué significa esto para la AI? Surgirían dos alternativas para su diseño. Por un lado el desarrollo de un lenguaje y sistema semántico ordenado, con propiedades definidas, y de un algoritmo autónomo que permita hace inferencias a partir de proposiciones y secuencias de proposiciones. Por otro lado, la opción sería el desarrollo de una arquitectura casi orgánica que consiga convertir estímulo del ambiente en impulsos químico eléctricos asociados a un repertorio de “estados mentales” que adoptaría la máquina.
Vinculado a lo último, exploramos las Actitudes Proposicionales, como las creencias, deseos y miedos. Vimos que estas son consideradas efectivas e indispensables por la postura realista intencional y lo contrario por los realistas intencionales. Si la postura de los primeros fuera la correcta, las máquinas inteligencias tendrían que tener programada una biblioteca de creencias, deseos, etc., que esta vaya adoptando de acuerdo a sus interacciones con el ambiente y con otras máquinas (de acuerdo a su “experiencia”) y que las utilice en relaciones causa efecto para explicar sus propias decisiones y las de otras máquinas y humanos. Para la postura contraria, esto no sería relevante, pues estas generalizaciones no tienen carácter causal explicativo.
La Teoría Computacional de la Mente (CTM) pareciera ser por definición la más cercana al campo del desarrollo de la AI, en tanto postula al cerebro y los procesos mentales como un computador y computaciones, respectivamente. El debate en este punto es si las explicaciones que surgen de un modelo de este tipo tienen relación o están en línea con las que tradicionalmente ha otorgado, con presunta efectividad, la psicología popular. Pareciera ser que la psicología folk, por ser poco intuitiva y poco estructurada en sus procesos subyacentes, y por tanto imposible de clonar en un sistema artificial, no constituye una base robusta para el desarrollo de máquinas inteligentes.
Los últimos conceptos que exploramos fueron el Mindreading, o capacidad para representar, razonar y responder a los estados mentales de otros, y sus dos vertientes: La TT y la ST. La idea central de la TT es que accedemos a una teoría representada y almacenada en el cerebro. De esta idea surgían una serie de cuestionamientos, algunos de los cuáles tendrían que ser respondido a plenitud para que pudiera tomarse la TT como punto de partida o referencia para la investigación en inteligencia artificial. Por ejemplo, la forma de representación de la TT: si es está representada en el cerebro por una red conexionista o de otro modo. También, y como se mencionó al hablar de teoría de la mente, si la TT tiene un patrón de desarrollo característico y predecible (que lo haría programable), a lo largo del desarrollo del niño. Su implementación en el cerebro también es sumamente relevante: ¿en qué estructuras físicas del complejo órgano está implantada? ¿Una máquina inteligente requeriría regiones cerebrales análogas? Por último, la pregunta sobre la historia natural de la TT y su presencia en parientes evolutivos como los primates es importante para encontrar alternativas pre-evolutivas al cerebro humano, que sean menos complejas de emular en una inteligencia artificial.
La simulación mental también postula una gran incógnita sobre la AI: ¿pueden tener las máquinas la capacidad de empatía que les permita atribuir estados mentales a otras máquinas y otras personas? Para que ello fuera posible, la AI debería ser capaz, en primer lugar, de interpretar un estado mental específico para después usarlo como input para ser procesado por sus propios algoritmos de decisión, los cuáles se alimentarían de un repertorio autogenerado (aprendido) o precargado de decisiones que ella misma tomaría. En este sentido, podríamos aventurarnos a decir que una AI no podría depender únicamente de un modelo de simulación mental, prescindiendo de recursos teóricos: si bien la ST postula que los recursos que nuestro cerebro usa como guía para nuestro comportamiento puede modificarse para representar estados mentales de otros y que no necesitamos almacenar información sobre los estados y comportamientos de la gente, en el caso de la máquina tanto los procesos (algoritmos) como los inputs tienen que estar de alguna forma pre-cargados en su arquitectura.
Para finalizar esta breve exposición, podemos llegar a tres conclusiones con certeza. En primer lugar, queda claro que el campo de desarrollo de la inteligencia artificial involucra muchas preguntas que ya han estado presentes en la filosofía, muchas de ella en el ámbito de la metafísica, epistemología y moral, pero la mayoría relacionada con el entendimiento de la mente humana. En segundo lugar, si bien es evidente que la investigación en inteligencia artificial se nutre y seguirá haciéndolo de una diversidad de conceptos y propuesta de la filosofía de la mente y de las ciencias cognitivas, lo contrario también es cierto: la investigación en filosofía de la mente ve confrontados muchos de sus desarrollos a raíz de los hallazgos en el campo de la AI y puede usar a esta última como vehículo para validar si muchos de los supuestos y teorías sobre el funcionamiento de la mente humana son suficientemente sólidos y eficaces como para ser emulado en un entorno artificial. Por último, concluimos, reforzando el objetivo de esta investigación, que hay y surgen más preguntas que respuestas al ver las intersecciones entre la AI y la filosofía de la mente, y que su relación se proyecta como un campo de investigación sumamente interesante y fértil para los próximos años
REFERENCIAS
Barlassina, L. a. (2017). Folk Psychology as Mental Simulation. In S. E. Philosophy, & E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy. Retrieved from https://plato.stanford.edu/archives/sum2017/entries/folkpsych-simulation/
Brunsteins, P. (2008). Algunas reflexiones acerca de la simulación mental y la perspectiva de la primera persona. Areté, 7-38.
Brunsteins, P. (2010). La psicología folk: Teorías, prácticas y perspectivas. Buenos Aires: Ediciones del signo.
Churchland, P. (1988). Folk Psychology and the Explanation of Human Behavior. Routledge Contemporary Readings in Philosophy, 313-326.
Diosdado, C. (2010). La teoría de la mente: de la inteligencia artificial a la inteligencia híbrida. Neurofilosofía. Perspectivas contemporáneas, 153-176.
Garcia Garcia, E. (2007). TEORIA DE LA MENTE Y CIENCIAS COGNITIVAS. In Nuevas perspectivas científicas y filosóficas sobre el ser humano (pp. 1-35). Madrid:: Universidad Pontificia de Comillas.
Garcia, E. (2007). Teoría de la mente y ciencias cognitivas. In Nuevas perspectivas científicas y filosóficas sobre el ser humano (pp. 1-35). Madrid:: Universidad Pontificia de Comillas.
Hauser, L. (2017, 12 03). Artificial Intelligence. Retrieved from Internet Encyclopedia of Philosophy: http://www.iep.utm.edu/art-inte/#H3
Kurzweil, R. (2005, February). On how technology will transform us. Retrieved from TED: https://www.ted.com/talks/ray_kurzweil_on_how_technology_will_transform_us?language=es
McCarthy, J., & Hayes, P. J. (1969). Some Philosophical Problems from the Standpoint of Artificial Intelligence. In B. M. Michie (Ed.), Machine Intelligence 4 (pp. 463-502). Edinburgh University Press.
Melnikov, A. (2016). Philosophical issues of artificial intelligence. Institute for Theoretical Physics University of Innsbruck.
Pitt, D. (2012). Mental Representation. In E. N. Zalta (Ed.). The Stanford Encyclopedia of Philosophy. Retrieved from https://plato.stanford.edu/archives/spr2017/entries/mental-representation/
Premack, D., & Woodruff, G. (1978). Does the chimpanzee have a theory of mind? Behavioral and Brain Sciences, 515–526.
Ravenscroft, I. (2016). Folk Psychology as a Theory. In E. N. Zalta (Ed.). The Stanford Encyclopedia of Philosophy. Retrieved from https://plato.stanford.edu/archives/fall2016/entries/folkpsych-theory/
Russell, S. J., & Norvig, P. (2003). Artificial Intelligence: A Modern Approach. New Jersey: Prentice Hall.
Schiaffonati, V. (2003). A Framework for the Foundation of the Philosophy of Artificial Intelligence. Minds and Machines, 537–552.
Tegmark, M. (2017). Benefits and Risks of Artificial Intelligence. Retrieved from Future of Life: https://futureoflife.org/background/benefits-risks-of-artificial-intelligence/