Home Noticias La IA es todo cerebro y no hay ética

La IA es todo cerebro y no hay ética

16
0

Únase a Fox Information para acceder a este contenido

Además de acceso especial a artículos seleccionados y otro contenido premium con su cuenta, de forma gratuita.

Al ingresar su correo electrónico y presionar continuar, usted acepta los términos de uso y la política de privacidad de Fox Information, que incluye nuestro aviso de incentivo financiero.

Por favor, introduce una dirección de correo electrónico válida.

NUEVO¡Ahora puedes escuchar artículos de Fox Information!

Un informe de febrero de 2025 realizado por Palisades Analysis muestra que los modelos de razonamiento de IA carecen de una brújula ethical. Harán trampa para lograr sus objetivos. Los llamados modelos de idiomas grandes (LLM) tergiversará el grado en que se han alineado con las normas sociales.

Nada de esto debería ser sorprendente. Hace veinte años, Nick Bostrom planteó un experimento psychological en el que se le pidió a una IA que produzca clips de papel de manera más eficiente. Dado el mandato y la agencia, eventualmente destruiría toda la vida producir clips de papel.

Isaac Asimov vio esto en su “I, Robotic” Historias que consideran cómo un cerebro robótico “alineado” aún podría salir mal de manera que dañe a los humanos.

El contexto ethical/ético dentro del cual operan los modelos de razonamiento de IA es lamentablemente pequeño. (Getty Photographs)

Un ejemplo notable, la historia “Runaround”, pone una herramienta de minería de robots en el planeta Mercurio. Los dos humanos en el planeta necesitan que funcione para que regresen a casa. Pero el robotic queda atrapado entre la demanda de seguir las órdenes y la demanda de preservarse. Como resultado, rodea minerales inalcanzables, sin darse cuenta de que en el panorama normal está ignorando su primer orden para preservar la vida humana.

La inminente economía desempleada impulsada por la IA: ¿quién pagará impuestos?

Y el panorama normal es el problema aquí. El contexto ethical/ético dentro del cual operan los modelos de razonamiento de IA es lamentablemente pequeño. Su contexto incluye las reglas escritas del juego. No incluye todas las reglas no escritas, como el hecho de que no se supone que no debas manipular a tu oponente. O que no debes mentir para proteger tus propios intereses percibidos.

Tampoco puede el contexto de los modelos de razonamiento de IA posiblemente incluir las innumerables consideraciones morales que se extienden de cada decisión que hace un humano o una IA. Es por eso que la ética es difícil, y cuanto más compleja es la situación, más difícil se volverán. En una IA no hay “tú” y no hay “yo”. Solo hay rápido, proceso y respuesta.

Entonces “Haz a los demás …” realmente no funciona.

AI está remodelando los negocios. Así es como nos mantenemos por delante de China

En humanos se desarrolla una brújula ethical a través de la socialización, con otros humanos. Es un proceso imperfecto. Sin embargo, hasta ahora nos ha permitido vivir en grandes, diversas y muy complejas sociedades sin destruirnos a nosotros mismos.

Una brújula ethical se desarrolla lentamente. Se necesitan años humanos desde la infancia hasta la edad adulta para desarrollar un sentido de ética robusto. Y muchos todavía no lo entienden y representan un peligro constante para sus compañeros humanos. Los humanos han llevado milenios desarrollar una moralidad adecuada para nuestra capacidad de destrucción y autodestrucción. Solo tener las reglas del juego nunca funciona. Pregúntale a Moisés, o Mahoma, o Jesús, o Buda, o Confucio y Mencio, o Aristóteles.

¿Incluso una IA bien alineada podría dar cuenta de los efectos de sus acciones en miles de personas y sociedades en diferentes situaciones? ¿Podría explicar el complejo entorno pure del que dependemos todos? En este momento, lo mejor ni siquiera puede distinguir entre ser justo y hacer trampa. ¿Y cómo podrían? La justicia no puede reducirse a una regla.

Ai no puedo esperar: por qué necesitamos velocidad para ganar

¿Quizás recuerde experimentos que muestran que los monos capuchinos rechazaron lo que parecía ser “salario desigual” por realizar la misma tarea? Esto los hace mucho más evolucionados que cualquier IA cuando se trata de moralidad.

Es francamente difícil ver cómo se puede dar una IA tal sensación de moralidad en ausencia de la socialización y la evolución continua para la cual los modelos actuales no tienen capacidad ausente de entrenamiento humano. E incluso entonces, están siendo entrenado, no formado. No se están volviendo morales, solo están aprendiendo más reglas.

Esto no hace que la AI no valga la pena. Tiene una enorme capacidad para hacer el bien. Pero sí hace que la AI sea peligrosa. Por lo tanto, exige que los humanos éticos creen las pautas que crearíamos para cualquier tecnología peligrosa. No necesitamos una carrera hacia la anarquía de AI.

Haga clic aquí para obtener más opinión de Fox Information

Tuve un last mordaz para este comentario, uno basado completamente en eventos informados públicamente. Pero después de la reflexión, me di cuenta de dos cosas: primero, que estaba usando la tragedia de alguien para mi momento de micrófono; y en segundo lugar, que los involucrados podrían ser heridos. Lo dejé caer.

No es ético usar el dolor y el sufrimiento de los demás para avanzar en el interés propio. Eso es algo que los humanos, al menos la mayoría de nosotros, sabemos. Es algo que AI nunca puede comprender.

Haga clic aquí para obtener la aplicación Fox Information

fuente