Frente a los potenciales riesgos que la inteligencia artificial podría representar para la seguridad global, un destacado grupo de científicos especializados ha decidido actuar con responsabilidad y visión de futuro.
Este compromiso surge tras las preocupaciones manifestadas el año pasado por Dario Amodei, director general de Anthropic, quien advirtió ante el Congreso estadounidense sobre cómo la avanzada tecnología de inteligencia artificial podría, en manos equivocadas, facilitar la realización de ataques biológicos de gran alcance.
La posibilidad de que individuos poco experimentados, pero con intenciones dañinas, utilicen esta herramienta para dispersar virus o sustancias tóxicas que ocasionen daños masivos a seres humanos, animales o plantas, refleja un escenario alarmante.
Cabe recordar la definición de la Universidad Complutense de Madrid, que describe a las armas biológicas como entidades vivas o sus productos tóxicos empleados con el objetivo de provocar enfermedad, incapacitación o muerte.
Ante esta realidad, la decisión de estos científicos de encaminar sus esfuerzos hacia el bienestar de la humanidad, evitando el desarrollo de herramientas que puedan ser utilizadas para el daño masivo, marca un hito en la ética y responsabilidad en el campo de la inteligencia artificial.
Entonces, ¿la IA es capaz de crear enfermedades?
Si bien la aplicación de la inteligencia artificial en el campo de las ciencias biológicas ofrece un panorama prometedor en términos de avances y soluciones a problemas globales, el manejo inadecuado o el uso malintencionado de esta tecnología podrían derivar en consecuencias negativas significativas a nivel biológico.
La capacidad para diseñar proteínas mediante IA abre la puerta no solo a desarrollos positivos como la creación de nuevos tratamientos médicos y la mejora en la respuesta a brotes de enfermedades infecciosas, sino también a posibles aplicaciones perjudiciales, como la creación de agentes patógenos más letales o resistentes a tratamientos existentes.
El uso no regulado de la IA en la modificación genética podría llevar a alteraciones impredecibles en ecosistemas, afectando la biodiversidad y provocando desequilibrios ecológicos.
Uso responsable de la IA
Ante este escenario con tintes algo apocalípticos, un grupo de investigadores especializados en inteligencia artificial se reunieron en la cumbre del Instituto para el Diseño de Proteínas de la Universidad de Washington el 25 de octubre de 2023, para realizar un acuerdo respecto al uso de la IA en la biología.
144 científicos, incluidos biólogos y expertos en inteligencia artificial enfocados en la creación de nuevas proteínas y hasta Frances Arnold, Premio Nobel de Química del 2018, han establecido un compromiso con el objetivo de asegurar que sus estudios apoyados por la inteligencia artificial continúen de manera que no representen una amenaza significativa para el planeta.
“Como científicos que participan en este trabajo, creemos que los beneficios de las tecnologías actuales de IA para el diseño de proteínas superan con creces el potencial de daño y nos gustaría asegurarnos de que nuestra investigación siga siendo beneficiosa para todos en el futuro”, dice la declaración firmada por esta comunidad científica.
Compromiso de los científicos
Los investigadores que firmaron la declaración acordaron que era necesario fijar una reglas concretas para que puedan encaminar su trabajo hacia un beneficio general de la humanidad.
“Realizaremos investigaciones en beneficio de la sociedad y nos abstendremos de realizar investigaciones que puedan causar daños generales o permitir el uso indebido de nuestras tecnologías”, es el primer compromiso del acuerdo.
Los científicos ejemplifican que esto se puede llevar a cabo a través de investigaciones orientadas a la creación de nuevos conocimientos y al fomento de la salud y el bienestar.
Asimismo, aseguran que apoyaran “los esfuerzos para mejorar los métodos mediante los cuales se evalúa su software de diseño de proteínas para identificar mejor los riesgos”.
“Esto se puede implementar participando en investigaciones para mejorar la comprensión teórica de los riesgos; participando en el desarrollo conjunto de marcos de evaluación; evaluando críticamente el desempeño de los marcos de evaluación actuales”, explican.
Aunque el acuerdo firmado por más de 100 científicos representa un paso significativo, aún queda por determinar cómo se aplicará efectivamente en la práctica.