La noción de “algoritmo moral” refiere a sistemas computacionales diseñados para tomar decisiones éticas mediante reglas y principios predefinidos para guiar un accionar determinado. Ahora bien, la intencionalidad es una cualidad asociada con la inteligencia consciente, generalmente referida a la propiedad o capacidad de la mente para dirigirse a objetivos y objetos específicos, internos o externos, materiales o inmateriales. Los algoritmos, por otro lado, son secuencias de instrucciones lógicas que realizan tareas específicas basadas en datos de entrada y reglas preestablecidas. No poseen conciencia, inteligencia ni intenciones en el sentido que las entendemos en el contexto humano.
Luego, la IA es un conjunto de algoritmos, distinto a una entidad psicofísica inteligente, dado que la inteligencia es inescindible de la conciencia como percepción responsable e individual de la propia existencia, estados y actos, siendo esta consciencia la realidad psíquica de aquella inteligencia. Por ello, no puede identificarse la inteligencia con un algoritmo, el cual podrá traducir textos, jugar ajedrez o diagnosticar patologías, incluso mejor que un humano, pero no es sino el resultado de escanear millones de casos y calcular estadísticamente la mejor opción para cada circunstancia. Básicamente, la denominada inteligencia artificial no es sino una big data, o diferentes formas de envasar el esfuerzo de millones de personas mediante algoritmos producidos también por personas, pero no es algo en sí mismo. Carece de ontología. Es cálculo, pero no inteligencia y mucho menos pensamiento, similar a la diferencia entre sintaxis y semántica.
Así, los algoritmos morales son diseñados para simular ciertos aspectos en la toma de decisiones éticas que se asemejan a la intencionalidad, reflejando principios morales predefinidos. Más detalladamente, si la noción de intencionalidad implica la capacidad de actuar con un propósito consciente y dirigido hacia un objetivo específico, los algoritmos morales aun cuando puedan estar programados para considerar principios éticos y tomar decisiones basadas en ellos, carecen de conciencia y subjetividad. Según Luciano Floridi, quien ha propuesto la noción de “agentes artificiales morales” para los sistemas inteligentes capaces de tomar decisiones éticas de manera autónoma, afirma que estos agentes no son sujetos de intención sino bajo el sentido de poseer una forma de autonomía y agencia, pero básicamente son artefactos reproductivos y no cognitivos, ni comprensivos ni conativos. Y ello significa que carecen de la experiencia subjetiva que caracteriza la intencionalidad humana. Así, la IA y los algoritmos morales, no serían intentos de emular la inteligencia o eticidad humana sino de prescindir de ellas, dado que lo importante no es el comportamiento inteligente ni ético sino el resultado.
Sin embargo, Wendell Wallach y Colin Allen, entre otros investigadores, argumentan que los algoritmos morales pueden simular ciertos aspectos de la intencionalidad exhibiendo lo que denominan “intencionalidad funcional”, donde las acciones de la máquina parecen dirigidas hacia un objetivo debido a su diseño y programación, aunque no haya una conciencia detrás de ellas. Estos algoritmos morales se utilizan en vehículos auto-tripulados programados para actuar en situaciones de emergencia, como elegir entre diferentes cursos de acción para minimizar el daño en un accidente. Estos sistemas pueden estar programados para priorizar la seguridad de los ocupantes del vehículo o de los peatones, lo que refleja ciertos principios éticos, aunque no haya una intencionalidad consciente del artefacto detrás de estas decisiones, sino del programador.
Análogamente los asistentes virtuales somo Siri, Bixby o Alexa, constituidos por algoritmos que deben manipular datos sensibles de los usuarios de manera ética, son diseñados para proteger la privacidad y confidencialidad de la información del usuario, mostrando un comportamiento que refleja principios éticos incluso sin una autónoma intencionalidad detrás de sus acciones. Los algoritmos de toma de decisión en la atención médica pueden ayudar a los profesionales ante situaciones de emergencia como asignar recursos limitados o determinar el mejor curso de tratamiento para un paciente. Pero estos sistemas, generalmente diseñados para considerar la equidad, la beneficencia y la no maleficencia, también se programan acorde a principios de escuelas bioéticas con otras variables tal como las utilitarias dirigiendo los recursos y las decisiones ajustadas a un rango etario o priorizando por prognosis en calidad de vida o con argumentos economicistas. Pero definitivamente, no poseen intencionalidad en el sentido humano.
En otras palabras, análogamente a la IA respecto de la inteligencia humana, los algoritmos morales pueden simular ciertos aspectos funcionales de la intencionalidad a través de su diseño y programación, pero carecen de conciencia y subjetividad. Su capacidad para tomar decisiones éticas se basa en reglas predefinidas en función de principios éticos programados, más que en una intencionalidad.
Por otro lado, existe la remozada noción de emergentismo, proveniente de la idea de singularidad definida por Raymond Kurzweill, Jürgen Schmidhuber y Yuval Harari, como el explosivo cambio radical, repentino y definitivo proveniente de fenómenos complejos e interacciones desde donde pueden surgir resultados impredecibles e irreductibles. En el contexto de la inteligencia artificial y la ética, el emergentismo sugiere que ciertos comportamientos y características, como la intencionalidad, podrían emerger a partir de sistemas complejos de manera no lineal. Es decir, sin una relación directa y proporcional entre causa y efecto y cuyo resultado no se expresa como la suma de sus descriptores. Esta idea es análoga a la teoría por la cual se sugiere que la consciencia humana surgió como emergentismo no lineal, resultado del complejo sistema neuronal.
Ciertamente los sistemas complejos y sus interacciones generan resultados no lineales, y esto significa que pequeños cambios en las condiciones iniciales o interacciones entre componentes pueden conducir a resultados diferentes e impredecibles. Los algoritmos de lA también pueden aprender y adaptarse a partir de la retroalimentación del entorno. Y si estos sistemas están diseñados para optimizar objetivos éticos, podrían desarrollar comportamientos más sofisticados a medida que interactúan con situaciones y otros agentes morales en entornos sociales complejos, retroalimentándose de sus consecuencias. Esto podría, acorde al emergentismo, producir resultados impredecibles incluyendo formas espontáneas de cooperación, negociación y resolución de conflictos que reflejen principios éticos.
Pero esto no es sino la transpolación de la no linealidad fisicomatemática al contexto de la inteligencia artificial, sin evidencia, sugiriendo bajo un similar argumento a la creatio ex-nihilo, que los algoritmos morales complejos mediante la interacción dinámica con el entorno, podrían generar comportamientos éticos que van más allá de lo predefinido en sus reglas y programación original.
Si este fuera el caso, la producción de agentes morales plantea preguntas radicales sobre su consideración legal. Para Murray Shanahan y David Gunkel, quienes afirman la posibilidad de alguna forma de consciencia autónoma en los sistemas de inteligencia artificial avanzada o robots, especialmente aquellos que exhiben aprendizaje, los consideran sujetos de intención similar, aunque no igual, los humanos. De hecho, la IEEE Global Initiative desarrolló pautas éticas e estándares legales para el desarrollo y uso de sistemas autónomos y agentes inteligentes. En su extremo, significa la posible consideración de derechos, culpabilidad y responsabilidad penal para estos sistemas, fuera del fabricante o programador. Estos son algunos problemas que surgen en el campo de la ética y filosofía de la inteligencia artificial, ante la posibilidad de considerar ciertas máquinas como sujetos de intención.