Подписывайтесь на наш Telegram и не пропускайте важные новости! Перейти

Гайд Про архитектуры нейросетей (нейро киллаур)

Начинающий
Начинающий
Статус
Оффлайн
Регистрация
8 Дек 2025
Сообщения
53
Реакции
0
Итак, почти все сервера используют нейро-античиты для детекта комбат-функций. Такие античиты (несколько самых популярных примеров): MX (SpookyTime), Polar (FunTime, Gamster, PikaNetwork), SlothAC (LonyGrief, CakeWorld) или свои кастомные решения, как на HolyWorld. И одним из их обходов это делать нейро-ротацию.
Нейросети бывают разных архитектур в статье мы рассмотрим 3 архитектуры: MLP (многослойный перцептрон), GRU (Gated Recurrent Unit), LSTM (Long Short-Term Memory)
MLP - это классическая полносвязная нейросеть. Она состоит из входного слоя, нескольких скрытых слоев и выходного слоя. Очень мало ресурсов пк, но ротация не будет выглядеть с виду человеческой да и как я знаю ее уже детектят, но конечно это еще зависит от обучения.
LSTM - это тип рекуррентной нейросети, созданный специально для работы с последовательностями данных. Она будет запоминать не отдельные удары, а целую цепочку действий при обучении, ротацию и с виду будет выглядеть человеческой и на данный момент она при хорошем обучении полностью андетект, но есть один существенный минус это то сколько она потребляет ресурсов.
GRU — это упрощенная и более современная версия LSTM. Как по мне самая лучшая на данный момент. Так же как и LSTM запоминает целую последовательность действий, но кратно меньше ест ресурсов.


Вот как то так если что то надо добавить, пишите.
 
Сделал GRU варик по приколу, получилось очень даже нихуево, за 20 секунд записи ротации бупасит фт, слотх, спукитайм, спейстайм и все такое (на холике не тестил), + очень прикольно что можно любую наводку фулл сделать, поделать пару тройку ударов на 360, и ротация будет хуярить 360 и обходить
 
Сделал GRU варик по приколу, получилось очень даже нихуево, за 20 секунд записи ротации бупасит фт, слотх, спукитайм, спейстайм и все такое (на холике не тестил), + очень прикольно что можно любую наводку фулл сделать, поделать пару тройку ударов на 360, и ротация будет хуярить 360 и обходить
У тебя сколько хромосом ? В каком мне это приснилось?
 
Итак, почти все сервера используют нейро-античиты для детекта комбат-функций. Такие античиты (несколько самых популярных примеров): MX (SpookyTime), Polar (FunTime, Gamster, PikaNetwork), SlothAC (LonyGrief, CakeWorld) или свои кастомные решения, как на HolyWorld. И одним из их обходов это делать нейро-ротацию.
Нейросети бывают разных архитектур в статье мы рассмотрим 3 архитектуры: MLP (многослойный перцептрон), GRU (Gated Recurrent Unit), LSTM (Long Short-Term Memory)
MLP - это классическая полносвязная нейросеть. Она состоит из входного слоя, нескольких скрытых слоев и выходного слоя. Очень мало ресурсов пк, но ротация не будет выглядеть с виду человеческой да и как я знаю ее уже детектят, но конечно это еще зависит от обучения.
LSTM - это тип рекуррентной нейросети, созданный специально для работы с последовательностями данных. Она будет запоминать не отдельные удары, а целую цепочку действий при обучении, ротацию и с виду будет выглядеть человеческой и на данный момент она при хорошем обучении полностью андетект, но есть один существенный минус это то сколько она потребляет ресурсов.
GRU — это упрощенная и более современная версия LSTM. Как по мне самая лучшая на данный момент. Так же как и LSTM запоминает целую последовательность действий, но кратно меньше ест ресурсов.


Вот как то так если что то надо добавить, пишите.
Вот объясни мне одно - для чего создавать тему которую полностью написала LLM, и вообще зачем писать гайды на тему в которой ты сам ничего не понимаешьа?

Ну ты же ведь сам не понимаешь даже базу машинного обученияа
но есть один существенный минус это то сколько она потребляет ресурсов.
И сколько же она потребляет? Расскажите пожалуйста, просто вот я возможно не знаю, это ведь вы ML эксперт

но кратно меньше ест ресурсов.
Нет, не кратно.
 
Сделал GRU варик по приколу, получилось очень даже нихуево, за 20 секунд записи ротации бупасит фт, слотх, спукитайм, спейстайм и все такое (на холике не тестил), + очень прикольно что можно любую наводку фулл сделать, поделать пару тройку ударов на 360, и ротация будет хуярить 360 и обходить
не может быть такого:) Как оно слотх например обойдет? в слотхе мл ауры уже пофиксили
 
не может быть такого:) Как оно слотх например обойдет? в слотхе мл ауры уже пофиксили
значит нормальную реализацию зафиксить не смогли, как и остальные анти читы
не может быть такого:) Как оно слотх например обойдет? в слотхе мл ауры уже пофиксили
Зафиксили наверн градиентный бустинг и рандомизаторы деревьев, и не более лол
 
значит нормальную реализацию зафиксить не смогли, как и остальные анти читы

Зафиксили наверн градиентный бустинг и рандомизаторы деревьев, и не более лол
жду сс, где ты обучаешь ротку и бьёшь ей на тест сервере ну или пехаешься с ней на кейке
 
жду сс, где ты обучаешь ротку и бьёшь ей на тест сервере ну или пехаешься с ней на кейке
Мне те видео с хуй знает скок часов беспрерывного пвп обучения делать ? у меня датасеты от 5 человек собираются уже 3 день, и модель с сервера берется, там же и обучается автоматом. СС побить челов на кейке в целом могу, видео с обучением заебусь
 
Мне те видео с хуй знает скок часов беспрерывного пвп обучения делать ? у меня датасеты от 5 человек собираются уже 3 день, и модель с сервера берется, там же и обучается автоматом. СС побить челов на кейке в целом могу, видео с обучением заебусь
давай, жду. Только на спавне не бей, чеки выключены)
 
Вот объясни мне одно - для чего создавать тему которую полностью написала LLM, и вообще зачем писать гайды на тему в которой ты сам ничего не понимаешьа?

Ну ты же ведь сам не понимаешь даже базу машинного обученияа

И сколько же она потребляет? Расскажите пожалуйста, просто вот я возможно не знаю, это ведь вы ML эксперт


Нет, не кратно.
По тебе видно ты прям эксперт, скажи конкретнее в чем твоя претензия ?
 
По тебе видно ты прям эксперт, скажи конкретнее в чем твоя претензия ?
Ну я то могу обосновать свою точку зрения, а вот в том что ты её сможешь обосновать - не уверен.

И ты так на вопросы и не ответил.

Сколько потребляет LSTM и почему всё же кратно?
 
значит нормальную реализацию зафиксить не смогли, как и остальные анти читы

Зафиксили наверн градиентный бустинг и рандомизаторы деревьев, и не более лол
Первый раз вижу чтобы так переводили метод случайного леса

Похоже вы тоже эксперт
 
Да нет, просто так выражаюсь, я скорее интерисующийся
Ну просто это неправильная и безграмотная терминология
Применять термин "рандом" на математическую модель основнной на теории ансамбля как по мне неправильно
 
Ну я то могу обосновать свою точку зрения, а вот в том что ты её сможешь обосновать - не уверен.

И ты так на вопросы и не ответил.

Сколько потребляет LSTM и почему всё же кратно?
Пожалуйста, авторизуйтесь для просмотра ссылки.
(Noad)

Там в таблице на одинаковых датасетах видно что: 1. параметров меньше что значит что и ресурсов она будет употреблять меньше 2. время обучения короче

при этом всем точность у них одинаковая
 
Пожалуйста, авторизуйтесь для просмотра ссылки.
(Noad)

Там в таблице на одинаковых датасетах видно что: 1. параметров меньше что значит что и ресурсов она будет употреблять меньше 2. время обучения короче

при этом всем точность у них одинаковая
Никто и не спорит что GRU вычислительно менее затратная чем LSTM, это даже в её архитектуре ячеек заложено.

Тут вопрос:
1. Почему, исходя из твоей логики, ты называешь LSTM "ресурсоёмкой" для данной задачи? Ты не LLM на миллиарды параметров обучаешь, а модель для ауры. Для неё разницы практически нет, если у тебя конечно не пентиум первый. У тебя ну в лучшем случае будет может быть 1-3 миллиона параметров (и это я сильно завышаю, к примеру текущая модель Sloth сейчас использует 700 тысяч параметров. И этого достаточно, и можно даже меньше делать спокойно, при этом даже подняв качество модели.)
2. И даже на этом ресурсе видно что выигрыш в производительности В ЛУЧШЕМ случае это 25%, а там и того меньше (11-12%). Это далеко не кратно. Кратно это в 2, 5, 10 раз, но уж точно не 11%.

Я могу сделать вывод что ты просто галлюцинаций ChatGPT начитался, где он говорит о том что LSTM больше ресурсоёмкая (и да, это факт), и теперь при каждом удобном случае говоришь о том что она невероятно ресурсоёмкая. Да нет в целом ни у кого столько данных ни под чит, ни под античит чтобы даже приблизиться к ёмкости модели в хотя бы миллиард параметров.
 
Назад
Сверху Снизу