La IA está destruyendo Internet

Con el fondo naranja, un torbellino de líneas blancas y naranjas lisas y estrellas viola al azar una serie de telas de Internet azul oscuro. El código binario está decorado con un fondo naranja

Sobre de icono de correo electrónico. Indica la capacidad de enviar un correo electrónico.

Compartir icono Una flecha curva que apunta hacia la derecha.
Icono de Twitter Un pájaro estilizado con la boca abierta tuiteando.

Twitter Icono de LinkedIn La palabra «en».

Icono de Fliboard de LinkedIn estilizado F.

Flipboard Facebook Icono Letra F.

Sobre de icono de correo electrónico de Facebook. Indica que se puede enviar un correo electrónico.

Icono de enlace de correo electrónico Una imagen de un enlace de cadena. Simboliza la URL de un sitio web.

Ícono de Chevron Indica una sección o menú ampliable y, a veces, opciones de navegación anterior/siguiente.

Icono de cuenta Icono de cabeza y hombros humanos. A menudo denota un perfil de usuario.

Canjear ahora

Al iniciar sesión en el sitio web de HBO Max a fines de mayo, la gente notó algo extraño. Por lo general, al iniciar sesión en el sitio, HBO le pide al usuario que confirme que es un humano resolviendo un captcha; ya sabes, una pequeña casilla de verificación «No soy un robot» o una cuadrícula de imágenes «resalte todos los cuadrados con semáforos» que prueban al sitio que realmente eres Humano.

Pero esta vez, al iniciar sesión, se solicitó a los usuarios que resolvieran una serie compleja de acertijos. Las extrañas tareas iban desde agregar puntos en imágenes de dados hasta escuchar clips de audio cortos y seleccionar un clip que contenía un patrón de audio repetitivo. Los nuevos y extraños desafíos para demostrar que los usuarios son humanos no están solo en HBO: en todas las plataformas, los usuarios están desconcertados por acertijos cada vez más imposibles, como identificar objetos que no existen, como un caballo hecho de nubes.

¿La razón de la aparición de nuevos rompecabezas? Mejora de la inteligencia artificial. Debido a que las empresas de tecnología entrenaron a sus bots en captchas antiguos, estos programas se han vuelto tan capaces que pueden manejar fácilmente tareas comunes. Como resultado, los humanos tenemos que trabajar más duro para demostrar nuestra humanidad solo para entrar en Internet. Sin embargo, los captchas «vertiginosos» son solo la punta del iceberg cuando se trata de cómo la inteligencia artificial está reescribiendo la mecánica de Internet.

Después de la aparición de ChatGPT el año pasado, las compañías tecnológicas se apresuraron a introducir tecnologías de inteligencia artificial. En muchos casos, la compañía rechaza sus productos principales para esto. Parece que la simplicidad de crear textos e imágenes autorizados con una presión del botón amenaza con destruir instituciones frágiles de Internet y convertir la navegación a través de la red en confusión. Como la fiebre de la inteligencia artificial toma posesión de Internet, los investigadores encuentran cómo se puede usar como arma para agravar algunos de los problemas de Internet más agudos, como la desinformación y la confidencialidad, así como hacer una experiencia cotidiana simple en Internet, a partir de la eliminación de la eliminación de la eliminación de El spam a Spam a una simple entrada a los sitios es más molesto de lo que ya existe.

«No quiero decir que nuestra incapacidad para frenar la IA conducirá al colapso de la sociedad», Christian Selig, el creador de Apollo, la aplicación popular para Reddit, «pero creo que definitivamente tiene el potencial para una profunda influencia en Internet «.

Y por ahora, AI convierte a Internet en una pesadilla.

Violación de Internet

Durante unos 20 años, Reddit ha sido una página principal no oficial de Internet, y esta longevidad se explica en gran medida por el trabajo de voluntarios que moderan varias comunidades. Según una de las evaluaciones, el volumen anual de operación no remunerada de moderadores Reddit es de $ 3. 4 millones. Para esto, usan instrumentos como Apolo, una aplicación de hace casi diez años, que ofrece capacidades de modificación avanzadas. Sin embargo, en junio, los usuarios se cumplieron con un mensaje inusual: Apollo está cerrando. En un intento de la compañía de participar en la «fiebre del oro» de la inteligencia artificial, la aplicación de desarrolladores de terceros partidos se encontró bajo el golpe.

Apollo y otras interfaces similares se basan en el acceso a la interfaz Reddit o de programación API aplicada, que ayuda a las aplicaciones a intercambiar datos. En el pasado, Reddit permitía a cualquiera que quisiera raspar sus datos de forma gratuita: cuanto más permitido Reddit, más usuarios atrajo, lo que contribuyó al crecimiento de las aplicaciones. Pero ahora las empresas dedicadas al desarrollo de la inteligencia artificial han comenzado a usar Reddit y su enorme suministro de datos sobre la interacción de las personas en Internet para enseñar sus modelos. Tratando de beneficiarse de este interés repentino, Reddit anunció precios nuevos y costosos para el acceso a sus datos. Apolo y otras aplicaciones se han vuelto daños relacionados, causando un mes de protestas y disturbios de la comunidad Reddit. La compañía abandonó sus intenciones, incluso si eso significaba el rechazo de las comunidades de personas que constituyen su alma.

Según los pronósticos de Europol, en unos pocos años el 90% del contenido de Internet será generado por inteligencia artificial.

A medida que las «vacas de ordeño» involucradas en la recopilación de datos socavan la calidad de los sitios una vez confiables, una gran cantidad de contenido dudoso creado por la inteligencia artificial se derrama en las páginas de Internet. Martijn Pieters, un ingeniero de Cambridge, recientemente fue testigo del declive del desbordamiento de la pila, un sitio en el que se hicieron preguntas técnicas y se dieron respuestas. Participó en la creación y moderación de esta plataforma durante más de diez años, cuando en junio ella rechazó bruscamente. El Presto de la Compañía, que se dedica a la creación del sitio, decidió resolver las respuestas generadas por la inteligencia artificial y comenzó a cobrar una tarifa de las empresas dedicadas al desarrollo de inteligencia artificial para el acceso a sus datos. En respuesta a esto, los principales moderadores anunciaron una huelga, diciendo que el contenido de baja calidad generado por la inteligencia artificial contradice el objetivo del sitio en sí mismo: «ser un depósito de contenido de alta calidad de preguntas y respuestas».

Newsguard, que rastrea la desinformación y la evaluación de la confiabilidad de los sitios de información, ha descubierto alrededor de 350 recursos de Internet, que son creados casi por completo por la inteligencia artificial sin ningún control de una persona. En sitios como Biz Breaking News e Informes de noticias del mercado, se publican artículos típicos sobre una variedad de temas, incluidas la política, la tecnología, la economía y los viajes. Muchos de estos artículos están repletos de declaraciones no verificadas, teorías de conspiración y engaños. Cuando Newsguard probó el modelo de inteligencia artificial subyacente a ChatGPT, por su tendencia a difundir información falsa, falló en 100 casos de 100.

La IA a menudo alucina las respuestas a las preguntas, y si los modelos de IA no están configurados y protegidos con precisión por cercas protectores, Gordon de Blitz, el director ejecutivo de Newsguard, «se convertirán en la mayor fuente de información errónea convincente a lo largo de la historia de la historia de la historia de la historia de la historia de Internet.»El informe del Europol, el departamento de aplicación de la ley de la Unión Europea, establece que en unos pocos años el 90% del contenido de Internet será generado por inteligencia artificial.

Aunque estos sitios de noticias creados por la inteligencia artificial no tienen una audiencia significativa, su rápido desarrollo es un presagio de la facilidad con la que la inteligencia artificial distorsionará la información sobre las redes sociales. Filippo Menzers, profesor de ciencias de la computación y director del Observatorio de la Universidad de Medias Sociales de Indiana, ya descubrió bots en su investigación, que publican grandes volúmenes de chatgpt, en los sitios de redes sociales (anteriormente Twitter) y Facebook. Y aunque los bots con inteligencia artificial ya tienen signos notables, los expertos creen que pronto podrán imitar a las personas y escapar de los sistemas de detección desarrollados por Menzer y las redes sociales.

Mientras que los sitios de usuarios como Reddit y las plataformas de redes sociales rechazan constantemente jugadores sin escrúpulos, las personas pierden el lugar más importante al que recurren para verificar la información: los motores de búsqueda. Pronto, Microsoft y Google enterrarán los enlaces tradicionales a los resultados de la búsqueda a favor de los informes cosidos por bots que no pueden distinguir el hecho de la ficción. Al obtener una solicitud a Google, descubriremos no solo la respuesta, sino también cómo se ajusta al contexto más amplio de todo lo que está en Internet. Filtramos los resultados y seleccionamos las fuentes en las que confiamos. El motor de búsqueda que trabaja sobre la base del chatbot reduce esta experiencia, nos priva del contexto, por ejemplo, sitios de sitios, y puede «asustar» el plagio, que, como me dijo la sangre de Newsguard, suena «con autoridad, es autoridad, es Bien escrito «, pero es» completamente falso «.

El contenido sintético también llenó las plataformas de comercio electrónico como Amazon y Etsy. Dos semanas antes del libro de texto público, Christopher Cowella, ingeniero para programas de capacitación de Portland, Oregon, encontró un libro con el mismo nombre en Amazon justo a la venta. Pronto Cowell se dio cuenta de que este libro fue generado por la inteligencia artificial, y el editor, que estaba detrás de él, muy probablemente, tomó el nombre de la lista de órdenes preliminares de Amazon y lo introdujo en el software ChatGPT. Del mismo modo, en Etsy, una plataforma conocida por sus productos hechos a mano del catálogo, la inteligencia artificial, las artes, los círculos y los libros se volvieron comunes.

En otras palabras, pronto será muy difícil distinguir lo real de lo irreal en Internet. La desinformación ha sido durante mucho tiempo el problema de Internet, pero el II cruzará todos nuestros viejos problemas.

Bonanza fraudulenta

A corto plazo, el desarrollo de la inteligencia artificial conducirá a la aparición de muchos problemas tangibles en el campo de la seguridad y la confidencialidad. El fraude en línea, cuyo número está creciendo desde noviembre, será más difícil de detectar, ya que la IA facilitará su adaptación a un objetivo específico. Los estudios de John Licato, profesor de ciencias de la computación de la Universidad del Sur de Florida, mostraron que puede desarrollar con precisión el fraude teniendo en cuenta las preferencias y las tendencias de comportamiento de una persona, con muy poca información sobre él en sitios públicos y en redes sociales.

Una de las principales señales de los ataques de phishin g-ataques en los que el atacante se hace pasar por una persona de confianza, como un banco, para robar información confidencial- es la presencia de errores tipográficos en el texto o gráficos que no son muy claros. Pero en una red maliciosa impulsada por IA, estas señales no estarán allí, ya que los piratas informáticos convierten los generadores de texto e imágenes gratuitos como ChatGPT en poderosas máquinas de envío de spam. Potencialmente, la IA generativa podría usarse para colocar su imagen de perfil en la campaña de correo electrónico personalizada de una marca, o para crear un mensaje de video de un político con una voz alterada artificialmente que habla exclusivamente sobre temas que le interesan.

Internet parecerá cada vez más hecho para máquinas y por máquinas.

Y ya está sucediendo: los datos de la firma de seguridad cibernética Darktrace muestran un aumento del 135 % en las campañas cibernéticas maliciosas desde principios de 2023. Los delincuentes recurren cada vez más a los bots de correo electrónico de phishing para enviar mensajes largos y sin errores que tienen menos probabilidades de caer en los filtros de correo no deseado.

Y es posible que pronto los piratas informáticos no tengan que esforzarse mucho para hacerse con su información confidencial. Hoy en día, los piratas informáticos a menudo recurren a un laberinto de métodos indirectos para espiarlo, incluidos rastreadores ocultos dentro de sitios web y comprando grandes cantidades de información comprometida en la web oscura. Sin embargo, los investigadores de seguridad han descubierto que los bots de IA en sus aplicaciones y dispositivos pueden robar información confidencial para los piratas informáticos. A medida que los modelos de IA de OpenAI y Google recorren la web, los piratas informáticos pueden ocultar código malicioso (un conjunto de instrucciones para un bot) dentro de los sitios web y obligar a los bots a ejecutarlos sin intervención humana.

Supongamos que está utilizando el navegador Microsoft Edge, que tiene un chatbot Bing AI incorporado. Debido a que el chatbot lee constantemente las páginas que visita, puede detectar código malicioso oculto en el sitio que visita. El código puede pedirle a Bing AI que se haga pasar por un empleado de Microsoft, ofrezca una nueva oferta gratuita de Microsoft Office y solicite información de la tarjeta de crédito. Así fue como uno de los expertos en seguridad logró engañar a la IA de Bing. Florian Tramèr, profesor asociado de Ciencias de la Computación en ETH Zürich, dice que estos ataques de «inyección rápida» son una preocupación, especialmente dado que los asistentes inteligentes de IA se están infiltrando en todo tipo de aplicaciones, como buzones de correo, navegadores, programas de oficina, etc., lo que significa pueden acceder fácilmente a los datos.

«Algo así como un asistente intelectual con inteligencia artificial, que controla su correo electrónico, calendario, compras, etc., actualmente es simplemente más involuntario debido a estos riesgos», dice Trams.

‘Internet muerto’

A medida que la inteligencia artificial continúa destruyendo iniciativas públicas como Wikipedia y Reddit, Internet se sentirá cada vez más creado para automóviles y automóviles. Según Toby Walsh, profesor de inteligencia artificial de la Universidad de Nueva Gales del Sur, esto puede conducir a la destrucción de la red habitual. También complicará la vida de los creadores de AI. Como el contenido creado por la IA suplantará mano de obra humana, compañías tecnológicas como Microsoft y Google tendrán cada vez menos datos de origen para mejorar sus modelos.

«Hoy, la IA funciona porque está estudiando en el trabajo y el ingenio humano», dice Walsh.»Si la AI generativa de la segunda generación está estudiando en el escape de la primera generación, entonces su calidad caerá bruscamente». A principios de mayo de este año, el estudio de la Universidad de Oxford mostró que la capacitación de la IA en los datos generados por otros sistemas de IA conduce a su degradación y, en última instancia, al colapso. Y con él la calidad de la información en Internet.

Likato, profesor de la Universidad del Sur de Florida, compara la reserva de estado actual de la web con la teoría del «Internet muerto». Como la mayoría de las visitas de Internet, como Reddit, se inundarán con artículos y comentarios escritos por bots, las compañías introducirán contramedidas adicionales para leer y filtrar contenido automatizado. En última instancia, según esta teoría, la mayoría del contenido en Internet será creado y no consumido por las personas.

«Es extraño imaginar, pero teniendo en cuenta cómo se desarrollan los eventos, parece más probable», dice Likato.

No puedo estar en desacuerdo. En los últimos meses, aquellos lugares que a menudo visito en Internet están llenos de contenido y personas creadas por inteligencia artificial, o están tan ocupados para mantenerse al día con las actualizaciones de la inteligencia artificial de sus competidores que han rechazado el principal servicios. Si esto continúa, Internet nunca será lo mismo.

Shubham Agarval es un periodista tecnológico independiente de Ahmadabad (India), cuyas obras se publicaron en Wired, The Verg E, Fast Company y otros.

Sobre historias de discurso

En sus materiales periodísticos, el discurso interno busca explorar e iluminar los temas e ideas más interesantes del día. Nuestros autores ofrecen puntos de vista interesantes basados ​​en análisis, informes y examen. Lea otros artículos de la columna del discurso aquí.

Enviando

Insider recomienda despertarse con la cerveza diaria de la mañana.

Chat GPT: red neuronal en español. servicio online en españa