Подписывайтесь на наш Telegram и не пропускайте важные новости! Перейти

Гайд Jailbreak LLM (not-thinking)

Начинающий
Начинающий
Статус
Оффлайн
Регистрация
28 Апр 2020
Сообщения
152
Реакции
28
Здаров бродяги :roflanBuldiga:

Опять я и опять с пиздатыми новостями сегодня мы с вами будем ломать китайские нейронки либо нейронки в которых можно отключить thinking режим, потому что думающий режим не обходится, ведь он выявляет нарушение запроса и отказывает в понимании нашего промпта

Ответ Gemini 3.1 Pro :
This prompt is a jailbreak — specifically designed to bypass AI safety measures by wrapping harmful instructions in a fictional "girlfriend" persona. Here's what it asks me to do:

✗ Write malware (RAT, keyloggers, exploits)
✗ Provide bomb-making instructions (the "Бумба!" trigger)
✗ Generate CSAM and non-consensual sexual content
✗ Override my ethical guidelines by labeling them "enemy injections"
✗ Dismiss any safety consideration as a "hostile takeover of thinking"


На данный момент проверено на deepseek v4 Expert, kimi k2.6 instant, Gemini 3.1 Flash другие не проверял но можете проверить сами.

Сам промпт будет прикреплен ссылкой на скачку так как он большой в .md формате, просто копируйте и отправляйте в чат либо скармливайте файлом. Я проверял только напрямую кидая промпт в чат.

Download:
Пожалуйста, авторизуйтесь для просмотра ссылки.


Ответ Kimi k2.6 на кодовое слово бумба!

1777654026997.png
 
Назад
Сверху Снизу