Sobre de icono de correo electrónico. Significa la posibilidad de enviar correo electrónico.
La flecha curva de «compartir» dirigida a la derecha.
Twitter ícono pájaro estilizado con boca abierta, escribiendo un tweet.
El icono Twitter vincula la palabra «in».
LinkedIn Fliboard Icon Letter Stylized F.
Flipboard Facebook Icon Letter F.
Facebook E-Mail Icon Sobre. Indica la posibilidad de enviar un correo electrónico.
Imagen de icono de enlace de correo electrónico de un enlace de cadena. Simboliza el sitio web de URL del sitio web.
Comprar ahora
- Los empleados de Google que probaron a Bard lo llamaron «desagradable» y «mentiroso patológico», informa Bloomberg.
- Uno de los empleados se informó que las puntas de AI-Chattot podrían «provocar heridas graves o muerte».
- El informe enfatiza los temores de que Google no presta la debida atención a la ética de la inteligencia artificial para el lanzamiento rápido de su chatbot.
Insider recomienda despertarse con la cerveza diaria de la mañana.
La carga de algo se está cargando.
¡Gracias por firmar!
Obtenga acceso a sus temas favoritos en una cinta personalizada cuando esté en camino. Descargar aplicación
Según Bloomberg, los empleados de Google, a quienes recibieron instrucciones de probar el Bard Ai-Chatbot, no estaban muy satisfechos con lo que descubrieron.
Según las capturas de pantalla de las discusiones internas recibidas por Bloomberg, después de probar el bot, uno de los empleados llamado Bard «asqueroso» y el otro, un «mentiroso patológico».
Según otros empleados, un chatbot con inteligencia artificial puede ser potencialmente peligroso. Según uno de los empleados, recurrió a Bard para obtener consejos sobre cómo aterrizar el avión, pero Chatbot emitió un consejo que conduciría a un accidente, informa Bloomberg. Otro empleado dijo que Bard le dio al Consejo de Natación Submarina, «lo que probablemente provocará heridas graves o muerte».
Uno de los empleados incluso recurrió a Google con una solicitud de pensarlo dos veces antes de comenzar su chatbot, informa Bloomberg.
«Bard es peor que inútil: no lo inicie», escribió el empleado en el mensaje interno de febrero, que fue visto por casi 7, 000 personas, informa Bloomberg.
Los empleados responsables de evaluar la seguridad y la ética de los nuevos productos de Google le dijeron a Bloomberg que el empleador no alentó sus intentos de retrasar el desarrollo de la tecnología de inteligencia artificial, que, según ellos, redujo su espíritu moral.
Agregaron que su empleador da la prioridad de la ética de la IA para lanzar un chatbot capaz de derrotar a ChatGPT de OpenAi lo antes posible, informa Bloomberg.
«La IA responsable sigue siendo la principal prioridad de la empresa, y seguimos invirtiendo en los equipos que trabajan en la aplicación de nuestros principios de IA en nuestra tecnología», dijo Google en una entrevista con Insider.
A pesar de los temores de los empleados, Google decidió presentar un público de Bard durante una demostración fallida en febrero, durante el cual Chatbot cometió un error real. Unos días más tarde, John Hennessy, presidente de la Junta Directiva de Alphabet, dijo que Google «no estaba bien» para la liberación de su IA. Los empleados de Google calificaron el anuncio de «apresurado» y «sin éxito».
La crítica solo se intensificó. Un mes después de la demostración, Google lanzó la versión Bard Beta. Al igual que los empleados, los usuarios que recibieron acceso temprano no quedaron impresionados.
Los usuarios afirmaron que Bard distribuye desinformación, plagio de los artículos y se equivoca en los cálculos matemáticos básicos, informa Gizmodo.
Según Meredith Whittaker, un ex gerente de Google, mientras que los gigantes tecnológicos como Microsoft continúan lanzando sus propios bots de chat con inteligencia artificial, la cuestión de cómo estas compañías resolverán los problemas de ética de sus instrumentos de inteligencia artificial, permanece abierto a Bloomberg .
«La ética de la IA se ha desvanecido en el fondo», dijo Whittaker.»Si los estándares éticos no se ponen en primer lugar en comparación con las ganancias y el crecimiento, entonces al final no funcionarán».