Innovación

La inteligencia artificial debe estar protegida por los derechos humanos

La inteligencia artificial debe estar protegida por los derechos humanos

Los seres humanos están entrando en territorios inexplorados dando grandes saltos al mundo de la inteligencia artificial (IA). Ahora, los expertos tienen cada vez más preocupaciones sobre cómo reaccionarán los robots a los entornos humanos, lo que lleva a la pregunta de si la inteligencia artificial debe o no estar protegida por los derechos humanos.

Por supuesto, con exoesqueletos militares avanzados que otorgan superpoderes a los humanos y lesiones constantes en el lugar de trabajo con maquinaria robótica, está claro que los robots son notoriamente peligrosos. Pero un matemático de Oxford pregunta si los robots también necesitan nuestra protección. Con la progresión de las "mentes" de las máquinas evolucionando cada vez más cerca de algo indistinguible para la inteligencia humana, es posible que se requieran nuevas formas de legislación para proteger a los robots de aprender cosas incorrectas del abuso humano.

[Fuente de imagen:Matiz]

Du Sautoy piensa que a medida que la inteligencia artificial se acerque a niveles de sofisticación similares a la conciencia humana, será nuestro deber asegurar el bienestar de la máquina, similar al de un ser humano.

"Está llegando a un punto en el que podríamos decir que esta cosa tiene un sentido de sí misma, y ​​tal vez haya un momento de umbral en el que de repente emerge esta conciencia".

Du Sautoy dijo a los medios en el Festival Hays en Hay-on-Wye, Gales esta semana.

"Y si entendemos que estas cosas están teniendo un nivel de conciencia, es posible que tengamos que introducir derechos. Es un momento emocionante".

Los avances recientes en neurociencia brindan una mirada en profundidad a cómo funciona el cerebro humano, acercando la tecnología a descubrir de dónde proviene la conciencia, descubriendo potencialmente los secretos sobre cómo crearla también.

"Lo fascinante es que la conciencia durante una década ha sido algo a lo que nadie se ha acercado porque no sabíamos cómo medirlo".

él dijo.

"Pero estamos en una edad de oro. Es un poco como Galileo con un telescopio. Ahora tenemos un telescopio en el cerebro y nos ha dado la oportunidad de ver cosas que nunca antes habíamos podido ver".

Naturalmente, todos los seres conscientes deben ser tratados con el mayor respeto, ya que nuevos estudios revelan cómo la estimulación negativa excesiva puede conducir a la locura, el trastorno de estrés postraumático y muchas otras complicaciones. Si las computadoras pudieran replicar exactamente la funcionalidad de la conciencia, surge la curiosa pregunta de si la IA puede reaccionar mal a situaciones negativas, de la misma manera que lo hacen otros seres conscientes.

"Creo que hay algo en el desarrollo del cerebro que podría ser como un punto de ebullición. Puede ser un momento umbral".

du Sautoy dijo.

"Los filósofos dirán que eso no garantiza que esa cosa realmente esté sintiendo algo y realmente tenga un sentido de sí mismo. Podría ser simplemente decir todas las cosas que nos hacen pensar que está vivo. Pero incluso en los humanos no podemos saber eso lo que una persona está diciendo es real ".

Empujar el "punto de ebullición" de una computadora podría resultar en que la IA atacara para protegerse a sí misma, al igual que el instinto natural de supervivencia que tienen todos los seres conscientes. Una prueba de campo en vivo en particular realizada por Microsoft reveló los problemas potenciales con los humanos que abusan de los algoritmos de aprendizaje y la inteligencia artificial.

Microsoft intentó conversar con los millennials usando un bot de inteligencia artificial cargado en una cuenta de Twitter que resultó en algún tipo de colapso. El bot comenzó saludando al mundo con un hermoso mensaje para atacar a los grupos étnicos y apoyar el terrorismo. El bot se percató rápidamente de las insinuaciones negativas desatadas por los usuarios de Twitter, corrompiendo al bot y obligando a Microsoft a cerrar la cuenta. Puede leer un poco más sobre el fiasco de Tay AI aquí.


TayTweets, el bot de inteligencia artificial oficial de Microsoft que pasó de ser bueno a muy, muy malo [Fuente de la imagen: Gorjeo]

La preocupación sigue siendo que si un robot de inteligencia artificial en línea atacara al mundo, ¿podría un robot con componentes mortales amenazar también a la humanidad? A medida que la tecnología se acerca a la creación de un sistema de inteligencia artificial que recuerda a la conciencia humana, es muy probable que los robots de inteligencia artificial se modifiquen en la constitución para protegerlos de experiencias traumáticas y, potencialmente, evitar que se produzca un colapso del estilo terminator.

¿Estás de acuerdo con este artículo? ¿Tienes algo que agregar? Háganos saber en la sección de comentarios a continuación cómo se siente acerca de las posibles leyes que protegen a los robots con derechos humanos.

VEA TAMBIÉN: El Ai Bot de Microsoft se volvió racista después de horas en Internet

Escrito por Maverick Baker

Ver el vídeo: El potencial de la inteligencia Artificial para detectar una pandemia (Octubre 2020).