Подписывайтесь на наш Telegram и не пропускайте важные новости! Перейти

Гайд Про архитектуры нейросетей (нейро киллаур)

Начинающий
Начинающий
Статус
Оффлайн
Регистрация
8 Дек 2025
Сообщения
38
Реакции
0
Итак, почти все сервера используют нейро-античиты для детекта комбат-функций. Такие античиты (несколько самых популярных примеров): MX (SpookyTime), Polar (FunTime, Gamster, PikaNetwork), SlothAC (LonyGrief, CakeWorld) или свои кастомные решения, как на HolyWorld. И одним из их обходов это делать нейро-ротацию.
Нейросети бывают разных архитектур в статье мы рассмотрим 3 архитектуры: MLP (многослойный перцептрон), GRU (Gated Recurrent Unit), LSTM (Long Short-Term Memory)
MLP - это классическая полносвязная нейросеть. Она состоит из входного слоя, нескольких скрытых слоев и выходного слоя. Очень мало ресурсов пк, но ротация не будет выглядеть с виду человеческой да и как я знаю ее уже детектят, но конечно это еще зависит от обучения.
LSTM - это тип рекуррентной нейросети, созданный специально для работы с последовательностями данных. Она будет запоминать не отдельные удары, а целую цепочку действий при обучении, ротацию и с виду будет выглядеть человеческой и на данный момент она при хорошем обучении полностью андетект, но есть один существенный минус это то сколько она потребляет ресурсов.
GRU — это упрощенная и более современная версия LSTM. Как по мне самая лучшая на данный момент. Так же как и LSTM запоминает целую последовательность действий, но кратно меньше ест ресурсов.


Вот как то так если что то надо добавить, пишите.
 
Назад
Сверху Снизу