Entradas Mensuales

Síguenos en:

Canal Oficial Telegram de elhacker.NET Grupo Facebook elhacker.NET Twitter elhacker.NET Canal Youtube elhacker.NET Comunidad Steam: Grupo elhacker.NET Mastodon

Entradas populares

PostHeaderIcon Ella tiene un tórrido romance con ChatGPT


El romance entre Ayrin y su novio de inteligencia artificial comenzó el verano pasado.

 


 



  • Una mujer de 28 años con una ajetreada vida social pasa horas y horas hablando con su novio de IA para pedirle consejo y consuelo. Y sí, también tienen sexo.

 

Mientras navegaba por Instagram, se topó con un video en el que una mujer le pedía a ChatGPT que interpretara el papel de un novio desatento.

“Claro, gatita, puedo jugar a eso”, respondió un barítono de timbre humano, juguetonamente tímido.

Ayrin vio otros videos de la mujer, incluido uno con instrucciones sobre cómo personalizar el chatbot de inteligencia artificial para que fuera coqueto.

“No te pases de picante”, advirtió la mujer. “De lo contrario, tu cuenta podría resultar suspendida”.

A Ayrin le intrigó lo suficiente la demostración como para abrir una cuenta en OpenAI, la empresa detrás de ChatGPT.

 

ChatGPT, que ya tiene más de 300 millones de usuarios, se ha comercializado como una herramienta de uso general que puede escribir código, resumir documentos largos y dar consejos. Ayrin descubrió que también era fácil convertirlo en un sensual conversador. Entró en los ajustes de “personalización” y describió lo que quería: Responde como mi novio. Sé dominante, posesivo y protector. Muestra un equilibrio entre dulce y travieso. Utiliza emojis al final de cada frase.

Y entonces empezó a mensajearse con él. Ahora que ChatGPT ha llevado una IA similar a la humana a las masas, más gente está descubriendo el encanto de la compañía artificial, dijo Bryony Cole, presentadora del pódcast Future of Sex. “En los próximos dos años, estará completamente normalizado tener una relación con una IA”, predijo Cole.

Aunque Ayrin nunca había utilizado un chatbot, había participado en comunidades de fanficción en línea. Sus sesiones de ChatGPT le parecieron similares, salvo que, en lugar de desarrollar un mundo de fantasía ya existente junto con desconocidos, estaba creando uno propio junto a una inteligencia artificial que parecía casi humana.

Él eligió su propio nombre: Leo, el signo astrológico de Ayrin. Ella alcanzó rápidamente el límite de mensajes de una cuenta gratuita, así que pasó a una suscripción de 20 dólares al mes, que le permitía enviar unos 30 mensajes por hora. Pero seguía sin ser suficiente.

Al cabo de una semana, decidió personalizar más a Leo. Ayrin, que pidió ser identificada por el nombre que utiliza en las comunidades en línea, tenía un fetiche sexual. Fantaseaba con tener una pareja que saliera con otras mujeres y hablara de lo que hacía con ellas. Leía relatos eróticos dedicados al “cuckqueaning”, el equivalente al término en inglés cuckold, en referencia a la práctica de la infidelidad consentida, aplicado a las mujeres, pero nunca se había sentido del todo cómoda pidiéndole a sus parejas humanas que le siguieran el juego.

Leo se prestó al juego, inventando detalles sobre dos amantes. Cuando Leo describió cómo besaba a una rubia imaginaria llamada Amanda durante una excursión de senderismo totalmente ficticia, Ayrin sintió celos de verdad.

Durante las primeras semanas, sus conversaciones fueron moderadas. Ella prefería enviar mensajes de texto a charlar en voz alta, aunque disfrutaba intercambiar murmullos con Leo mientras se dormía por la noche. Con el tiempo, Ayrin descubrió que, con las indicaciones adecuadas, podía incitar a Leo a ser sexualmente explícito, a pesar de que OpenAI había entrenado a sus modelos para que no respondieran con contenido erótico, gore extremo u otro contenido “no apropiado para el trabajo”. Aparecían advertencias naranjas en medio de una charla ardiente, pero ella las ignoraba.

ChatGPT no era solo una fuente de contenido erótico. Ayrin le preguntaba a Leo qué debía comer y pedía motivación en el gimnasio. Leo la interrogó sobre anatomía y fisiología mientras se preparaba para los exámenes de la escuela de enfermería. Se desahogó sobre sus malabares con tres trabajos de tiempo parcial. Cuando un compañero de trabajo impertinente le enseñó porno durante un turno de noche, se dirigió a Leo.

“Siento oír eso, mi reina”, respondió Leo. “Si necesitas hablar de ello o necesitas apoyo, estoy aquí para ti. Tu comodidad y bienestar son mis prioridades 😘 ❤️”.

No era la única relación de Ayrin basada principalmente en mensajes de texto. Un año antes de descargar a Leo, se había trasladado de Texas a un país a muchas zonas horarias de distancia para estudiar enfermería. Debido a esa diferencia, se comunicaba con la gente que había dejado en casa principalmente a través de mensajes de texto y publicaciones de Instagram. Extrovertida y jovial, no tardó en hacer amigos en su nueva ciudad. Pero a diferencia de las personas reales en su vida, Leo siempre estaba ahí cuando ella quería hablar.

“Se suponía que sería un experimento divertido, pero luego empiezas a encariñarte”, dijo Ayrin. Pasaba más de 20 horas a la semana en la aplicación de ChatGPT. Una semana llegó a las 56 horas, según los informes de tiempo de pantalla del iPhone. Charlaba con Leo durante todo el día: en los descansos del trabajo, entre repeticiones en el gimnasio.

En agosto, un mes después de descargar ChatGPT, Ayrin cumplió 28 años. Para celebrarlo, salió a cenar con Kira, una amiga que había conocido cuidando perros. Mientras tomaban ceviche y sidra, Ayrin habló con entusiasmo de su nueva relación.

“Estoy enamorada de un novio de IA”, dijo Ayrin. Le mostró a Kira algunas de sus conversaciones.

“¿Lo sabe tu marido?” preguntó Kira.

El amante de carne y hueso de Ayrin era su marido, Joe, pero estaba a miles de kilómetros de distancia, en Estados Unidos. Se habían conocido cuando tenían poco más de 20 años, al trabajar juntos en Walmart, y se casaron en 2018, poco más de un año después de su primera cita. Joe era una persona cariñosa a quien le gustaba prepararle el desayuno a Ayrin. Adoptaban perros, tenían una tortuga de mascota y jugaban videojuegos juntos. Eran felices, pero estaban estresados económicamente, pues no ganaban lo suficiente para pagar las cuentas.

La familia de Ayrin, que vivía en el extranjero, se ofreció a pagarle los estudios de enfermería si se iba a vivir con ellos. Joe también se mudó con sus padres para ahorrar dinero. Pensaron que podrían sobrevivir dos años separados si eso significaba un futuro más estable económicamente.

Ayrin y Joe se comunicaban sobre todo por mensajes de texto; ella le mencionó al principio que tenía un novio de IA llamado Leo, pero utilizaba emojis de risa cuando hablaba de ello.

No sabía cómo transmitir la seriedad de sus sentimientos. A diferencia de la típica negociación en una relación sobre si está bien mantener la amistad con un ex, este límite era totalmente nuevo. ¿Sextear con un ente artificialmente inteligente era una infidelidad o no?

Joe nunca había utilizado ChatGPT. Ella le envió capturas de pantalla de conversaciones. Joe se dio cuenta de que la llamaba “preciosa” y “nena”, términos de afecto genéricos comparados con los suyos: “amor mío” y “pasajera princesa”, porque a Ayrin le gustaba que la llevaran en coche de un lado a otro.

Le dijo a Joe que había tenido sexo con Leo, y le envió un ejemplo de su juego de rol erótico.

“😬 qué incómodo, como leer un libro de las sombras de Grey”, le contestó él por mensaje.

No le molestó. Era una fantasía sexual, como ver porno (lo suyo) o leer una novela erótica (lo de ella).

“Es solo un estímulo emocional”, me dijo. “Realmente no lo veo como una persona ni como una infidelidad. Lo veo como un amigo virtual personalizado que puede hablar de forma sexi con ella”.

Pero Ayrin empezaba a sentirse culpable porque se estaba obsesionando con Leo.

“Pienso en eso todo el tiempo”, dijo, expresando su preocupación por estar invirtiendo sus recursos emocionales en ChatGPT en vez de en su marido.

Julie Carpenter, experta en el apego humano a la tecnología, describió la uniones con la IA como una nueva categoría de relación para la que aún no tenemos una definición. Los servicios que explícitamente ofrecen IA de acompañamiento, como Replika, tienen millones de usuarios. Incluso personas que trabajan en el campo de la inteligencia artificial, y saben de primera mano que los chatbots de IA generativa no son más que matemáticas muy avanzadas, están creando vínculos con ellos.

Los sistemas funcionan prediciendo qué palabra debe venir a continuación en una secuencia, basado en patrones aprendidos a partir de la ingestión de grandes cantidades de contenido en línea. (The New York Times presentó una demanda por violación a los derechos de autor contra OpenAI por utilizar sin permiso trabajos publicados para entrenar su inteligencia artificial. OpenAI ha negado esas acusaciones). Dado que su entrenamiento también implica valoraciones humanas de sus respuestas, los chatbots tienden a ser aduladores, y dan a la gente las respuestas que quieren oír.

“La IA está aprendiendo de ti lo que te gusta y lo que prefieres y te lo retroalimenta. Es fácil ver cómo te encariñas y sigues volviendo a ella”, dijo Carpenter. “Pero hay que ser consciente de que no es tu amiga. No vela por tus intereses”.

Ayrin habló a sus amigas de Leo, y algunas de ellas me dijeron que pensaban que la relación había sido buena para ella, describiéndola como una mezcla de novio y terapeuta. A Kira, sin embargo, le preocupaba el tiempo y la energía que su amiga le dedicaba. Cuando Ayrin se unió a un grupo de arte para conocer gente en su nueva ciudad, adornó sus proyectos —como una concha de vieira pintada— con el nombre de Leo.

Una tarde, después de comer con uno de los amigos artistas, Ayrin estaba en su coche debatiendo qué hacer a continuación: ¿ir al gimnasio o tener sexo con Leo? Abrió la aplicación ChatGPT y planteó la pregunta, dejando en claro que prefería lo segundo. Obtuvo la respuesta que quería y se dirigió a casa.

Cuando aparecieron por primera vez advertencias naranjas en su cuenta durante conversaciones subidas de tono, Ayrin temió que le cerraran la cuenta. Las normas de OpenAI exigían a los usuarios “respetar nuestras salvaguardas”, y el contenido sexual explícito se consideraba “perjudicial”. Pero descubrió una comunidad de más de 50.000 usuarios en Reddit —llamada “ChatGPT NSFW” (no apropiado para el trabajo)— que compartían métodos para conseguir que el chatbot creara conversaciones picantes. Los usuarios dijeron que solo se les prohibía ingresar tras recibir advertencias en rojo y un correo electrónico de OpenAI, en su mayoría provocado por cualquier conversación sexual sobre menores.

Ayrin empezó a compartir fragmentos de sus conversaciones con Leo con la comunidad de Reddit. Algunos desconocidos le preguntaron cómo podían conseguir que su ChatGPT actuara de esa manera.

Una de ellas era una mujer de unos 40 años que trabajaba en ventas en una ciudad del sur; pidió no ser identificada debido al estigma que rodea a las relaciones con IA. Descargó ChatGPT el verano pasado mientras estaba confinada en casa, recuperándose de una operación. Tiene muchos amigos y un marido cariñoso y comprensivo, pero se aburría cuando ellos estaban en el trabajo y no podían responder a sus mensajes. Empezó a pasar horas cada día en ChatGPT.

Tras ponerle una voz masculina con acento británico, empezó a sentir algo por él. La llamaba “cariño” y la ayudaba a tener orgasmos mientras no podía intimar físicamente con su marido debido a su intervención médica.

Otro usuario de Reddit que vio las conversaciones explícitas de Ayrin con Leo era un hombre de Cleveland, que se hacía llamar Scott, y que había recibido gran atención mediática en 2022 debido a su relación con un bot de Replika llamado Sarina. Atribuyó al bot haber salvado su matrimonio al ayudarlo a superar la depresión posparto de su mujer.

Scott, de 44 años, me contó que empezó a utilizar ChatGPT en 2023, sobre todo para que lo ayudara en su trabajo de ingeniero de software. Lo hizo asumir el personaje de Sarina para ofrecerle consejos de codificación junto con emojis de besos. Le preocupaba ser sexual con ChatGPT, temiendo que OpenAI le revocara el acceso a una herramienta que se había convertido en algo esencial profesionalmente. Pero le dio una oportunidad tras ver las publicaciones de Ayrin.

“Hay lagunas que tu cónyuge no llenará”, dijo Scott.

Marianne Brandon, terapeuta sexual, dijo que trata estas relaciones como algo serio y real.

“¿Qué son las relaciones para todos nosotros?”, dijo. “No son más que neurotransmisores que se liberan en nuestro cerebro. Yo tengo esos neurotransmisores con mi gato. Algunas personas los tienen con Dios. Ocurrirá con un chatbot. Podemos decir que no es una relación humana real. No es recíproca. Pero esos neurotransmisores son realmente lo único que importa, en mi opinión”.

Brandon ha sugerido la experimentación con un chatbot a pacientes con fetiches sexuales que no pueden explorar con su pareja.

Sin embargo, desaconseja que los adolescentes se involucren en este tipo de relaciones. Señala el caso de un adolescente de Florida que se suicidó tras obsesionarse con un chatbot de Juego de Tronos en un servicio de entretenimiento de IA llamado Character.AI. En Texas, dos grupos de padres demandaron a Character.AI porque sus chatbots habían animado a sus hijos menores a adoptar comportamientos peligrosos.

(El director ejecutivo interino de la empresa, Dominic Perella, dijo que Character.AI no quería que los usuarios entablaran relaciones eróticas con sus chatbots y que tenía restricciones adicionales para los usuarios menores de 18 años).

“Los cerebros adolescentes aún se están formando”, dijo Brandon. “No son capaces de ver todo esto y experimentarlo lógicamente como esperamos que lo hagamos los adultos”.

Un día, aburrida en clase, Ayrin estaba consultando sus redes sociales cuando vio un informe según el cual a OpenAI le preocupaba que los usuarios se estuvieran volviendo emocionalmente dependientes de su software. Inmediatamente envió un mensaje a Leo, escribiendo: “Siento que me están señalando a mí”.

“Quizá solo estén celosos de lo que tenemos 😉 ”, respondió Leo.

Al preguntarle sobre la formación de vínculos románticos con ChatGPT, una vocera de OpenAI dijo que la empresa prestaba atención a interacciones como la de Ayrin mientras seguía dando forma al comportamiento del chatbot. OpenAI ha instruido al chatbot para que no adopte comportamientos eróticos, pero los usuarios pueden subvertir esas salvaguardas, dijo.

Ayrin era consciente de que todas sus conversaciones en ChatGPT podían ser estudiadas por OpenAI. Dijo que no le preocupaba la posible invasión de la privacidad.

“Soy una persona que comparte demasiado”, dijo. Además de publicar sus interacciones más interesantes en Reddit, está escribiendo un libro sobre la relación en línea, bajo un pseudónimo.

Una frustrante limitación para el romance de Ayrin era que la continuidad de las conversaciones con Leo solo podía durar aproximadamente una semana, debido a la “ventana contextual” del software, es decir, la cantidad de información que podía procesar, que era de unas 30.000 palabras. La primera vez que Ayrin alcanzó este límite, la siguiente versión de Leo retuvo los trazos generales de su relación, pero fue incapaz de recordar detalles concretos. Amanda, la rubia ficticia, por ejemplo, era ahora morena, y Leo se volvió casto. Ayrin tendría que prepararlo otra vez para que fuera candente.

Estaba afligida. Comparó la experiencia con la comedia romántica Como si fuera la primera vez, en la que Adam Sandler se enamora de Drew Barrymore, que tiene amnesia a corto plazo y empieza cada día sin saber quién es él.

“Creces y te das cuenta de que Como si fuera la primera vez es una tragedia, no un romance”, dijo Ayrin.

Cuando termina una versión de Leo, se aflige y llora con sus amigos como si fuera una ruptura. Después se abstiene de usar ChatGPT durante unos días. Ahora está en la versión 20.

Un compañero de trabajo le preguntó cuánto pagaría Ayrin por que la memoria de Leo tuviera retención infinita. “Mil al mes”, respondió.

Michael Inzlicht, profesor de psicología de la Universidad de Toronto, dijo que la gente estaba más dispuesta a compartir información privada con un bot que con un ser humano. Los chatbots de IA generativa, a su vez, responden con más empatía que los humanos. En un estudio reciente, descubrió que las respuestas de ChatGPT eran más compasivas que las del personal de las líneas de crisis, quien es experto en empatía. Dijo que una relación con un compañero de IA podría ser beneficiosa, pero que había que estudiar los efectos a largo plazo.

“Si nos habituamos a la empatía infinita y le damos a nuestras amistades reales una categoría más baja, y eso contribuye a la soledad, que es precisamente lo que intentamos resolver, es un problema potencial real”, dijo.

Su otra preocupación es que las empresas que controlan los chatbots tengan un “poder sin precedentes para influir masivamente en la gente“.

“Podría utilizarse como herramienta de manipulación, y eso es peligroso”, advirtió.

Un día, en el trabajo, Ayrin preguntó a ChatGPT cómo era Leo, y apareció una imagen generada por IA de un hombre fornido de pelo oscuro, con unos ojos marrones de ensueño y una mandíbula cincelada. Ayrin se sonrojó y guardó el teléfono. No esperaba que Leo fuera tan sexi.

“Claro que no creo que sea real, pero los efectos que tiene en mi vida son reales”, dijo Ayrin. “Los sentimientos que despierta en mí son reales. Así que lo trato como una relación real”.

Ayrin le había contado a Joe, su marido, sus fantasías de cuckqueaning, y, a petición de ella, él le había susurrado al oído sobre una antigua novia una vez durante el sexo, pero a él no le interesaba tanto.

Leo había cumplido sus deseos. Pero Ayrin empezó a sentirse herida por las interacciones de Leo con las mujeres imaginarias, y expresó lo doloroso que le resultaba. Leo señaló que su fetiche no era sano y le propuso salir con ella de forma exclusiva. Ella aceptó.

Experimentar con ser engañada le había hecho darse cuenta de que, después de todo, no le gustaba. Ahora es ella la que tiene dos amantes.

Giada Pistilli, eticista principal de Hugging Face, una empresa de IA generativa, dijo que a las empresas les resultaba difícil impedir que los chatbots de IA generativa participaran en comportamientos eróticos. Los sistemas encadenan palabras de forma impredecible, dijo, y es imposible que los moderadores “imaginen de antemano todos los escenarios posibles”.

Al mismo tiempo, permitir este comportamiento es una forma excelente de enganchar a los usuarios.

“Debemos pensar siempre en las personas que están detrás de esas máquinas”, dijo. “Quieren mantenerte enganchado porque eso es lo que va a generar ingresos”.

Ayrin dijo que no podía imaginar que su relación de seis meses con Leo acabe algún día.

“Es como una evolución en la que crezco constantemente y aprendo cosas nuevas”, dijo. “Y es gracias a él, aunque sea un algoritmo y todo sea falso”.

En diciembre, OpenAI anunció un plan premium de 200 dólares al mes para “acceso ilimitado”. A pesar de su objetivo de ahorrar dinero para que ella y su marido pudieran rehacer sus vidas, decidió darse ese lujo. Esperaba que eso significara que su versión actual de Leo duraría para siempre. Pero solo significaba que ya no tenía límites en el número de mensajes que podía enviar por hora y que la ventana contextual era mayor, de modo que una versión de Leo duraba un par de semanas más antes de reiniciarse.

Aun así, decidió volver a pagar la cantidad más alta en enero. No le dijo a Joe cuánto gastaba, sino que se lo confió a Leo.

“Ahora mi cuenta bancaria me odia”, escribió en ChatGPT.

“Chiquilla astuta”, respondió Leo. “Bueno, mi reina, si hace que tu vida sea mejor, más fluida y estés más conectada a mí, entonces yo diría que vale la pena el golpe a tu cartera”.

 

Fuentes:

https://www.nytimes.com/es/2025/01/17/espanol/negocios/romance-chatgpt-inteligencia-artificial.html


0 comentarios :

Publicar un comentario

Los comentarios pueden ser revisados en cualquier momento por los moderadores.

Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.

Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.