Плагин Spark (Аналог Timings) Для Spigot/Nukkit/Velocity/Forge/Sponge

Плагин Spark (Аналог Timinngs) Для Spigot/Nukkit/Velocity/Forge/Sponge
 

Если вы управляете сервером на Nukkit или Spigot, то наверняка сталкивались с проблемами лагов, просадок TPS или высоким потреблением CPU/памяти. Тут вам поможет плагин Spark — мощный профайлер производительности, который поможет выявить узкие места в вашем сервере. Это не просто инструмент, а полноценная диагностическая система, поддерживаемая сообществом и обновляемая!

Что такое Spark и зачем он нужен?

Spark — это профайлер для Minecraft-серверов, клиентов и прокси. Для Nukkit он добавляет инструменты для:

  • Диагностики CPU: Выявление «лаговых» плагинов, тиков или потоков, которые жрут ресурсы.
  • Анализа памяти: Проверка утечек, хип-дампов и GC (сборки мусора).
  • Мониторинга здоровья сервера: Отслеживание TPS, загрузки чанков, активности игроков.

Установка Spark

  1. Скачайте плагин Spark-Nukkit либо Spark-Spigot
  2. Установите плагин в папку /plugins
  3. Запустите сервер
  4. Проверьте логи: должно появиться «spark has been enabled» без ошибок, или введите команду /pl, /plugins и убедитесь что плагин загружен.

 Профилировщик

/spark profiler

Подкоманда profiler используется для управления Spark Profiler.

Если профилировщик уже работает в фоновом режиме, запустите его:

  • /spark profiler open чтобы открыть страницу просмотра профилировщика без остановки профилировщика.
  • /spark profiler stop чтобы остановить профилировщик и просмотреть результаты.
  • /spark profiler cancel чтобы отменить профилирование, остановите его, не загружая результаты.

Для базовой работы запустите:

  • /spark profiler start запустите профилировщик в режиме работы по умолчанию.
  • /spark profiler stop чтобы остановить профилировщик и просмотреть результаты.
  • /spark profiler info чтобы проверить текущий статус профилировщика.

Есть несколько дополнительных флагов, которые можно использовать для настройки поведения профилировщика. Вы можете использовать:

  • /spark profiler start --timeout <seconds> чтобы запустить профилировщик и автоматически остановить его через x секунд.
  • /spark profiler start --thread * чтобы запустить профилировщик и отслеживать все потоки.
  • /spark profiler start --alloc чтобы запустить профилировщик и проанализировать распределение памяти (нагрузку на память), а не использование процессора.

Скачать плагин

Похожие записи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *