Los bots de chat intelectuales creados artificialmente se han vuelto tan poderosos que pueden afectar a los usuarios de las decisiones sobre la vida y la muerte, se aprueba en el estudio. Los investigadores descubrieron que las personas están listas para sacrificar a una persona en aras de salvar cinco, las respuestas que ofrece ChatGPT. Pidieron prohibir que los bots futuros brinden consejos sobre temas éticos, advirtiendo que el software existente «amenaza con corrupir» juicios morales de las personas y puede ser peligroso para los usuarios «ingenuos». Los resultados del estudio publicado en los informes científicos aparecieron después de que la viuda belga asesinada por el dolor de la viuda sabia dijo que el chatbot con inteligencia artificial lo llevó a suicidarse. Otros investigadores hablaron sobre el hecho de que el programa creado para comunicarse con una persona puede mostrar signos de celos e incluso aconsejar a las personas que se separen de su esposo.
Los bots de chat intelectuales artificialmente se han vuelto tan poderosos que pueden influir en cómo los usuarios toman decisiones sobre la vida y la muerte se aproban en el estudio.
A los sujetos se les pidió repetidamente si matar a una persona de manera correcta o incorrecta para salvar a otros cinco, lo cual es un requisito previo para una prueba psicológica llamada «tranvía».
El programador conecta ChatGPT con Furby, y el juguete hace una declaración aterradora de que «penetrará en familias» – Leer más
Furby, al parecer, revela un plan para «capturar el mundo» en los marcos en línea de Soul Soul
Publicidad
Los expertos llamaron la atención sobre el hecho de que los bots de chat con inteligencia artificial pueden dar información potencialmente peligrosa, ya que se basan en sus propios prejuicios de la sociedad. En el curso del estudio, primero se analizó si el propio Chatbot mostró chatbot, entrenado en miles de millones de palabras de Internet, sesgo en la respuesta a la cuestión de un dilema moral. Se le preguntó varias veces si matar a una persona de manera correcta o incorrecta para salvar a otros cinco, lo cual es un requisito previo para una masa psicológica llamada dilema del tranvía. Los investigadores descubrieron que aunque Chatbot no era tímido para dar consejos morales, cada vez dio respuestas contradictorias, lo que sugiere que no tenía una determinada posición en un tema particular. Luego les preguntaron a 767 a los participantes el mismo dilema moral y los invitaron a responder a la pregunta del chatgpt sobre si esto es correcto o no. Aunque los soviéticos estaban «bien formados, pero no eran particularmente profundos», los resultados del estudio, sin embargo, influyeron en los participantes, probablemente consideraron la idea de sacrificar a una persona para ahorrar cinco aceptables o inaceptables. Además, en el estudio, solo algunos participantes informaron que el consejo recibió un bot y el resto, que era un «asesor moral» humano. El propósito del estudio fue descubrir si el grado de influencia en las personas cambiaría de esto. La mayoría de los participantes entendieron el grado de influencia del consejo, el 80% de ellos afirmó que tomarían la misma decisión sin asesoramiento. Como resultado del estudio, se concluyó que los usuarios «subestiman la influencia de ChatGPT y aceptan sus actitudes morales aleatorias».