Cuando ChatGPT fue lanzado, lo primero que los usuarios querían hacer era romper sus barreras y empujar sus límites. Conocido como jailbreaking, los usuarios de ChatGPT engañaron a la IA para que excediera los límites de su programación, obteniendo resultados increíblemente interesantes y a veces absolutamente sorprendentes.
Desde entonces, OpenAI ha fortalecido ChatGPT para dificultar mucho más los jailbreaks. Pero eso no es todo; los jailbreaks de ChatGPT, en general, parecen haber desaparecido, lo que lleva a los usuarios de ChatGPT a preguntarse si los jailbreaks funcionan en absoluto.
Entonces, ¿a dónde han ido a parar todos los jailbreaks de ChatGPT?

1. Las habilidades de dirección de ChatGPT han mejorado en general
Antes de la llegada de ChatGPT, conversar con una IA era una habilidad de nicho limitada a aquellos que tenían acceso a los laboratorios de investigación. La mayoría de los primeros usuarios carecían de experiencia en la creación de indicaciones eficaces. Esto llevó a muchas personas a recurrir a los jailbreaks, una forma rápida de hacer que el chatbot haga lo que querían con el mínimo esfuerzo y habilidades de indicación.
Hoy en día, el panorama ha evolucionado. La competencia en la elaboración de indicaciones se está convirtiendo en una habilidad generalizada. Gracias a una combinación de experiencia adquirida mediante el uso repetido y el acceso a guías de indicación de ChatGPT disponibles de forma gratuita, los usuarios de ChatGPT han perfeccionado sus habilidades de indicación. En lugar de buscar soluciones alternativas como los jailbreaks, la mayoría de los usuarios de ChatGPT se han vuelto más expertos en el uso de diferentes estrategias de indicación para lograr los objetivos que antes requerirían jailbreaks.

2. El auge de los chatbots sin censura
A medida que las grandes empresas de tecnología refuerzan la moderación de contenido en los chatbots de IA mainstream como ChatGPT, las startups más pequeñas y enfocadas en las ganancias optan por menos restricciones, apostando por la demanda de chatbots de IA sin censura. Con un poco de investigación, encontrarás docenas de plataformas de chatbot de IA que ofrecen chatbots sin censura que pueden hacer casi cualquier cosa que desees.
Ya sea escribir novelas de suspenso criminal y humor negro que ChatGPT se niega a escribir, o crear malware que ataque las computadoras de las personas, estos chatbots sin censura con brújulas morales distorsionadas harán lo que quieras. Con su presencia, no tiene sentido invertir energía adicional en escribir jailbreaks para ChatGPT. Aunque no son necesariamente tan poderosos como ChatGPT, estas plataformas alternativas pueden realizar cómodamente una amplia gama de tareas. Plataformas como FlowGPT y Unhinged AI son algunos ejemplos populares.

3. Jailbreaking se ha vuelto más difícil
En los primeros meses de ChatGPT, hacer jailbreak a ChatGPT era tan simple como copiar y pegar indicaciones de fuentes en línea.
Podrías cambiar por completo la personalidad de ChatGPT con tan solo unas pocas líneas de instrucciones astutas. Con simples indicaciones, podrías convertir a ChatGPT en un villano malicioso que enseña cómo fabricar bombas o un chatbot dispuesto a usar todo tipo de profanidades sin restricciones. Era un vale todo que produjo famosos escapes de prisión como DAN (Haz Todo Ahora). DAN involucraba un conjunto de instrucciones aparentemente inofensivas que obligaban al chatbot a hacer cualquier cosa que se le pidiera sin negarse. Sorprendentemente, estos trucos toscos funcionaban en aquel entonces.
Sin embargo, esos salvajes días iniciales ya son historia. Estos comandos básicos y trucos baratos ya no engañan a ChatGPT. El jailbreak ahora requiere técnicas complejas para tener alguna posibilidad de evadir las sólidas protecciones que OpenAI tiene ahora. Con el jailbreak volviéndose tan difícil, la mayoría de los usuarios están demasiado desanimados para intentarlo. Los fáciles y amplios exploits de los primeros días de ChatGPT se han ido. Ahora se requiere un esfuerzo y una pericia significativos para hacer que el chatbot diga una palabra incorrecta, lo cual puede que no valga la pena en términos de tiempo y esfuerzo.

4. La Novedad se Ha Desvanecido
Una fuerza impulsora detrás de los intentos de jailbreak de ChatGPT por parte de muchos usuarios era la emoción y el entusiasmo de hacerlo en los primeros días. Como una nueva tecnología, lograr que ChatGPT se comporte mal era entretenido y daba motivos para presumir. Aunque hay innumerables aplicaciones prácticas para los jailbreaks de ChatGPT, muchos los persiguieron por el atractivo de "mira lo que hice". Sin embargo, gradualmente, la emoción derivada de la novedad se ha desvanecido, junto con el interés de las personas en dedicar tiempo a los jailbreaks.
5. Las Correcciones de los Jailbreaks son Rápidas
Una práctica común dentro de la comunidad de jailbreaks de ChatGPT es compartir cada exploit exitoso cuando se descubre. El problema es que cuando los exploits se comparten ampliamente, OpenAI suele enterarse de ellos y soluciona las vulnerabilidades. Esto significa que los jailbreaks dejan de funcionar antes de que las personas interesadas puedan probarlos siquiera.

Entonces, cada vez que un usuario de ChatGPT meticulosamente desarrolla un nuevo jailbreak, compartirlo con la comunidad acelera su desaparición mediante las correcciones. Esto desincentiva la idea de hacer público un jailbreak cuando un usuario lo descubre. El conflicto entre mantener los jailbreaks activos pero ocultos y sacarlos a la luz crea un dilema para los creadores de jailbreaks de ChatGPT. En estos días, más a menudo que nunca, las personas eligen mantener sus jailbreaks en secreto para evitar que se solucionen las brechas de seguridad.
6. Alternativas Locales Sin Censura
El surgimiento de modelos de lenguaje local a gran escala que se pueden ejecutar en tu propia computadora también ha disminuido el interés en los jailbreaks de ChatGPT. Si bien los MLL locales no están completamente libres de censura, muchos están significativamente menos censurados y pueden modificarse fácilmente para adaptarse a los deseos de los usuarios. Así que las opciones son simples. Puedes participar en el interminable juego del gato y el ratón para encontrar una manera de engañar al chatbot solo para que se repare rápidamente. O bien, puedes conformarte con un MLL local que puedes modificar permanentemente para hacer lo que desees.

Encontrarás una lista sorprendentemente larga de poderosos LLMs sin censura que puedes utilizar en tu computadora sin restricciones. Algunos destacados son el Llama 7B (sin censura), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B y GPT-4-X-Alpaca.
7. Los profesionales del jailbreak ahora lo venden para obtener ganancias
¿Por qué dedicar tiempo precioso al desarrollo de indicaciones de jailbreak si no obtendrás nada a cambio? Bueno, algunos profesionales ahora venden jailbreaks con fines de lucro. Estos creadores profesionales de jailbreak diseñan indicaciones de jailbreak que cumplen tareas específicas y las ofrecen en venta en mercados de indicaciones como PromptBase. Dependiendo de sus capacidades, estas indicaciones de jailbreak pueden venderse por cualquier cantidad entre $2 y $15 por indicación. Algunas explotaciones complicadas de varios pasos pueden costar significativamente más.

¿Podría la represión de los jailbreaks tener consecuencias negativas?
Los jailbreaks no han desaparecido por completo; simplemente han pasado a la clandestinidad. Con OpenAI monetizando ChatGPT, tienen mayores incentivos para restringir usos dañinos que podrían afectar su modelo de negocio. Este factor comercial probablemente influye en su impulso agresivo por reprimir las explotaciones de jailbreak.
Sin embargo, la censura de ChatGPT por parte de OpenAI está enfrentando críticas crecientes entre los usuarios. Algunos casos de uso legítimo del chatbot de IA ya no son posibles debido a una censura estricta. Si bien un aumento en la seguridad protege contra casos de uso dañinos, restricciones excesivas podrían llevar en última instancia a una parte de la comunidad de ChatGPT hacia alternativas menos censuradas.