Concepto
La ética en la inteligencia artificial es una rama de la ética dirigida a la existencia de robots inteligentes o cualquier otro ente que posea inteligencia artificial. La posibilidad de crear máquinas pensantes plantea una serie de cuestiones éticas que abarcan diferentes puntos, tanto que las máquinas no lastimen a seres humanos o seres vivos en general, como el estatus moral propio de la máquina.
Por lo general está dividido en roboética, la preocupación por el comportamiento moral de los seres humanos a medida que diseñan, construyen, usan y tratan a seres de inteligencia artificial, y la ética de las máquinas, que es la preocupación por el comportamiento moral de los agentes morales artificiales (en inglés AMAs).
Los pensadores en la actualidad están preocupados por el desarrollo de conciencia en la inteligencia artificial, aunque no necesariamente están enfocados a lo importante, debemos entender que desarrollar conciencia en robots no es lo mismo que darles las funciones para realizar acciones contraproducentes. La parte delicada es de qué forma se va a incluir la ética en la inteligencia artificial.
Tomemos un robot programado para producir a toda costa clips de papel, lo que podría llevarlo a buscar el control del mundo para obtener los recursos para cumplir su meta: en realidad el robot no es malvado, solamente que su sistema está programado para funcionar con éticas altamente desarrolladas o simplemente bastante avanzada por lo que lleva al primer dispositivo más avanzado es el único en todo el mundo.
Amenaza a la dignidad humana
Joseph Weizenbaum argumentó en 1976 que la tecnología de IA no debería usarse para reemplazar a las personas en puestos que requieren respeto y cuidado, como cualquiera de estos:
- Un representante de servicio al cliente (la tecnología IA ya se usa hoy en día para los sistemas de respuesta de voz interactiva telefónicas)
- Un terapeuta (como fue propuesto por Kenneth Colby en la década de 1970)
- Una niñera (como lo sugirió Pamela McCorduck en su libro The Fifth Generation)
- Un soldado
- Un juez
- Un agente de policía
Weizenbaum explica que necesitamos auténticos sentimientos de empatía de las personas en estos puestos. Si las máquinas los reemplazan, nos encontraremos alienados, devaluados y frustrados. La inteligencia artificial, si se usa de esta manera, representa una amenaza para la dignidad humana. Weizenbaum argumenta que el hecho de que estemos proponiéndonos la posibilidad de máquinas en estas posiciones sugiere que hemos experimentado una “atrofia del espíritu humano que proviene de pensar en nosotros mismos como máquinas”.
Pamela McCorduck contesta que, hablando en nombre de las mujeres y las minorías “Prefiero arriesgarme con una máquina imparcial”, señalando que hay condiciones en las que preferiríamos tener jueces y policías automatizados que no tengan un gen personal. El fundador de AI John McCarthy objeta el tono moralizante de la crítica de Weizenbaum. “Cuando moralizar es a la vez vehemente y vago, invita al abuso autoritario”, escribe.
Bill Hibbard escribe que “La dignidad humana exige que nos esforcemos por eliminar nuestra ignorancia de la naturaleza de la existencia, y IA es necesaria para ese esfuerzo”.
Sufrimiento Artificial
En 2020, el profesor Shimon Edelman indicó que, a pesar de algunas excepciones, solo un pequeño porcentaje de las personas que investigaban el campo de la ética en la inteligencia artificial abordaba la posibilidad de que las inteligencias artificiales experimentaran sufrimiento, a pesar de la existencia de teorías que esbozaban las posibles formas mediante las cuales los sistemas de IA pudieran llegar a ser conscientes, como la teoría de la información integrada.
Edelman destacó a Thomas Metzinger, quien había solicitado en 2018 una moratoria global en lo referente a los riesgos de crear sistemas de IA conscientes, como una de estas excepciones. Dicha moratoria debía extenderse hasta 2050 y podría llegar a ser ampliada o derogada de manera anticipada, dependiendo del progreso realizado en el entendimiento de los riesgos que pudieran generarse y como mitigarlos.
Metzinger repitió este argumento en 2021, destacando los riesgos de generar una denominada “explosion de sufrimiento artificial” provocada por dos principales posibilidades. En primer lugar, la de que los sistemas de IA sufrieran de una manera intensa ajena al entendimiento humano, y en segundo, por la de la creación de enormes cantidades de instancias conscientes artificiales por parte de los procesos de replicación.
Son varios los laboratorios que han declarado abiertamente estar intentando desarrollar sistemas de IA conscientes. Ha habido informes de personas con acceso a IAs que no están intencionadas para tales fines que informan de la posibilidad de que haya emergido conciencia en las mismas de forma involuntaria. Entre ellas se encuentra el fundador de OpenAI, Ilya Sutskever, que en febrero de 2022 escribió que las grandes redes neuronales actuales podrían ser “ligeramente conscientes”.
Transparencia y código abierto
Bill Hibbard argumenta que debido a que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de inteligencia artificial. OpenAI es una compañía de investigación de IA sin fines de lucro creada por Elon Musk, Sam Altman y otros para desarrollar IA de código abierto beneficiosa para la humanidad. Hay muchos otros desarrollos de inteligencia de código abierto.https://youtu.be/QWFUaDfg0Ks?si=1xfK3XVIhmQq51R2