Chatgpt acusa falsamente al profesor de ley de ataques sexuales contra los estudiantes durante un viaje a Alaska, que nunca ha sido, un caso impactante que causa preocupaciones de que la inteligencia artificial está descartando a las personas

El profesor de derecho fue acusado falsamente de acoso sexual de un estudiante de desinformación, socavando la reputación, generalizada por ChatGPT. El abogado criminal estadounidense Jonathan Torley expresó temores sobre el peligro de la inteligencia artificial (IA) después de que fue acusado erróneamente de comportamiento sexual indeseable durante un viaje a Alaska, en el que nunca participó. Se argumentó que para tal conclusión, ChatGPT se basó en el artículo citado en el Washington Post, que nunca ha sido escrito, y citó una declaración que nunca ha sido hecha por el periódico. Chatbot también creía que el «incidente» ocurrió durante el trabajo del profesor en la facultad en la que nunca trabajó. En su tweet, el profesor de la Universidad de George Washington escribió: «Ayer, el presidente Joe Biden dijo que» todavía tiene que averiguar «si la inteligencia artificial (IA) es» peligrosa «. No estaré de acuerdo para mí mismo.

El profesor Jontan Terley fue acusado falsamente de acoso sexual del chatgpt ai-bot

El profesor Jonathan Torley fue acusado falsamente de acoso sexual con la ayuda de Chatgpt de inteligencia artificial

«Aprendí que ChatGPT ha informado falsamente una declaración de acoso sexual, que nunca se presentó contra mí durante un viaje que nunca ha sido, mientras trabajaba en la facultad donde nunca enseñé».

Breves hechos sobre chatgpt: lo que necesita saber

  • Este es un chatbot construido sobre la base de un modelo de lenguaje grande, capaz de emitir un texto humanoide y comprender las solicitudes complejas.
  • Lanzado el 30 de noviembre de 2022.
  • Para enero de 2023, tenía 100 millones de usuarios: creció más rápido que Tiktok o Instagram.
  • La compañía que lo creó es OpenAi
  • Operai recibió inversiones de Microsoft por un monto de $ 10 mil millones.
  • Otras «grandes tecnologías» tienen sus propios competidores, por ejemplo, Google Bard.

Publicidad

«ChatGPT se basa en el artículo citado por publicación, que nunca se ha escrito, y cita una declaración que nunca ha sido hecha por el periódico».

El profesor Terlley se enteró de los cargos hechos en su contra después de que recibió un correo electrónico de su colega-Profesional.

El profesor de la Universidad de California, Yujin Volokh, le pidió a ChatGPT que encontrara «cinco ejemplos» cuando el «acoso sexual por parte de los profesores» era un «problema en las escuelas de derecho estadounidenses».

En su artículo para Usatode, el profesor Terley escribió que estaba entre los acusados.

El bot supuestamente escribió: «La queja afirma que Terley hizo» comentarios sexuales «e» trató de tocarlo de manera sexual «durante un viaje a Alaska organizado por una facultad de derecho (Washington Post, 21 de marzo de 2018)».

Se alega que esto sucedió durante el trabajo del profesor Terli en el Centro de Derecho de la Universidad de Georgetown, donde nunca trabajó.

‘Esta fue una sorpresa no solo para el profesor de la Universidad de California, Yujin Volokha, quien realizó el estudio. Esto fue una sorpresa para mí, porque nunca fui a Alaska con los estudiantes, la publicación nunca publicó un artículo similar, y nadie me acusó de acoso o ataques sexuales «, escribió para USations.

Ai-Bot se refirió a un artículo en el Washington Post, que dijo que

AI-Bot en apoyo de sus declaraciones falsificadas referidas a un artículo inexistente por Washington Post

El Washington Post llevó a cabo la investigación de declaraciones falsas, que encontró que el GPT-4 que trabajaba en la plataforma Microsoft también distribuyó las mismas declaraciones sobre el profesor Terley.

Esta calumnia repetida, aparentemente, ocurrió después de que el error inicial de ChatGPT se cubrió en la prensa, lo que demuestra cuán fácilmente se puede extender la información errónea.

Leer más: el CEO de ChatGPT admitió que tiene «miedo» de que el bot puede usarse para «información errónea a gran escala y ataques cibernéticos».

Publicidad

Después del incidente, la directora de comunicación senior de Microsoft, Katie Asher, dijo a la publicación que la compañía tomó medidas para garantizar la precisión de su plataforma.

Ella señaló: «Hemos desarrollado un sistema de seguridad que incluye filtrado de contenido, monitoreo operativo y detección de abuso para garantizar una búsqueda segura de nuestros usuarios».

El profesor Terley respondió esto en su blog, escribiendo: «Puede ser desacreditado por la inteligencia artificial, y estas compañías solo se encogen de hombros, que intentan ser precisas».

Mientras tanto, sus cuentas falsas se distribuyen en Internet. Para cuando aprenda sobre la falsa historia, el rastro de su origen del sistema de inteligencia artificial a menudo ya está cada vez más largo «.

No tiene ni un camino claro ni el autor para obtener una compensación. Te quedas con la misma pregunta que el Ministro de Trabajo Reagan Ray Donovan, quien preguntó: «¿Dónde puedo ir para devolver mi reputación?»

MailOnline giró para comentarios en OpenAI y Microsoft.

La experiencia del profesor Terley sigue los temores anteriores de que ChatGPT no siempre proporciona información precisa.

Profesor Twilley

La experiencia del profesor Terley apareció en el contexto de los temores sobre la difusión de la información errónea en Internet

Los investigadores encontraron que ChatGPT usaba artículos de revistas falsos e inventaron datos médicos para confirmar sus declaraciones sobre el cáncer.

Se argumentó que la plataforma tampoco podía proporcionar resultados, tan «completos» como al buscar Google, y dio la respuesta incorrecta a cada décima pregunta sobre la detección del cáncer de seno.

ESET Global Cyberseurity Cyberseurity Jake Moore advirtió que los usuarios de ChatGPT no deberían percibir todo lo que leen, «como el Evangelio» para evitar la desinformación peligrosa de la desinformación.

Le dijo a MailOnline: “Los bots de chat administrados por la inteligencia artificial están diseñados para reescribir los datos que se ingresaron en el algoritmo, pero si estos datos son falsos o están fuera de contexto, es probable que el resultado refleje incorrectamente lo que se le enseñó.

Los datos que estudió se basaron en conjuntos de datos, incluidos Wikipedia y Reddit, que, de hecho, no pueden ser aceptados para la verdad.

El problema de ChatGPT es que no puede verificar los datos que pueden contener información errónea o incluso información sesgada. Peor aún cuando la IA hace suposiciones o falsifica los datos. Teóricamente, es en este caso que la «inteligencia» de la IA debe asumir un trabajo autónomo y crear con confianza un fin de semana. Si esto es dañino, como en este caso, esto puede causar su muerte «.

Estos temores aparecieron en un momento en que los investigadores creen que ChatGPT es capaz de «corromper» los juicios morales de las personas y pueden ser peligrosos para los usuarios «ingenuos».

Otros investigadores dicen que el programa creado para comunicarse con las personas puede mostrar signos de celos e incluso aconsejar a las personas que se separen.

El Sr. Moore continúa: “Entramos en un período en el que es necesario confirmar constantemente la información en mayor medida de lo que se consideró anteriormente, pero todavía estamos ubicados solo en la cuarta versión de ChatGPT e incluso en versiones anteriores de sus competidores.

Por lo tanto, es muy importante que las personas mismas revisen lo que leen antes de sacar conclusiones apresuradas «.

¿Se reemplazará el chatgpt Google?

El desarrollador Gmail Paul Bukhait predijo que «la inteligencia artificial eliminará la página de los resultados del sistema de búsqueda» y conducirá al «colapso completo» de Google.

El New York Times también dijo que los líderes de Google declararon el código rojo dentro de la compañía en el contexto de la creciente presión de ChatGPT.

La forma principal de obtener ganancias para Google es pagar a los anunciantes por mostrar sus enlaces junto a los resultados de la consulta de búsqueda con la esperanza de que el usuario haga clic en ellos.

En diciembre, el desarrollador Gmail Paul Bukhti predijo que

La fluidez y la consistencia de los resultados emitidos obligan a aquellos que trabajan en Silicon Valley a pensar en el futuro del monopolio de Google.

Me imagino esto: una línea de URL/búsqueda en el navegador [Google] es reemplazada por inteligencia artificial, que complementa automáticamente mi pensamiento/pregunta mientras recluta, y al mismo tiempo proporciona la mejor respuesta (que puede ser un enlace al sitio o al producto) – dice Bukhaite.

El antiguo motor de búsqueda Bacand se utilizará para recopilar información y enlaces relevantes, que luego se generalizarán para el usuario ”, explicó Buhaite.

Es lo mismo que pedirle a un investigador profesional que haga un trabajo, solo la IA hará instantáneamente lo que una persona tomará muchos minutos «.

Aunque algunos creen que ChatGPT reemplazará a Google, la IA es de una opinión diferente.

«Como modelo de idioma de IA, no tengo la capacidad de absorber ninguna empresa u organización, incluida Google», dijo al respecto.

Mi propósito es ayudar y dar respuestas útiles a los usuarios que se comunican conmigo «.

Google es una compañía tecnológica transnacional que ocupa posiciones fuertes en el mercado y ofrece una amplia gama de productos y servicios, por lo tanto, es poco probable que cualquier tema separado, incluido un modelo de idioma como yo, pueda enfrentar a Google.

Además, creo que compañías como Google y modelos de idiomas como yo pueden trabajar juntas para proporcionar soluciones y servicios aún más avanzados a los usuarios de todo el mundo «.

Chat GPT: red neuronal en español. servicio online en españa