LINUX.ORG.RU
ФорумAdmin

Как быстро искать в journalctl

 ,


0

1

journalctl -u http -S -12h --no-pager | grep «blabla»

Ооочень долго ищет. Раньше я использовал обычные логи /var/log/* там быстро было, а через journalctl капец как долго. Как это вообще используется правильно? Или что я не так делаю?

★★★★

1. Ограничивать объем логов размером на диске или временем хранения. Вручную vacuum или настроить один раз конфиг. Кстати /var/log/* тоже нужно было ограничивать.

2. Не использовать жесткие диски.

hargard ★★★
()
Ответ на: комментарий от BOOBLIK

Всего пару недель назад чуваку писали и об этом, и о ключе –grep.

Плохеет с головой у человека, в прямом эфире.

thesis ★★★★★
()
Последнее исправление: thesis (всего исправлений: 1)
Ответ на: комментарий от thesis

Ну вот гуглишь ты мучительно, на форумах спрашиваешь, в итоге выстраиваешь пайп с какими-то длинными опциями… А тут оказывается, что это не нужно всё, можно сразу наложить фильтры и получить результат с сохранением форматирования текста. Не интересно.

anonymous
()

Зачем ты плодишь темы, если всё равно не читаешь ответов в них?

Ведь тебе и в прошлый раз и про необязательность --no-pager говорили (и я и другие — уже не один раз), и про --grep.

P.S. Понимаю, что вероятнее всего и этот комментарий прочитан не будет, но раз уж есть небольшой шанс, стоит попробовать.

CrX ★★★★★
()
Ответ на: комментарий от thesis

А чем ключ грепа поможет? Греп что-ли медленно работает или копеечный пайп тормозит всё? Не, там проблема в том, что сам системд туповат, а логи пухлые и размазаны по всему винту, откуда оно по кусочку их собирает (винт это тебе не SSD с одинаковой скоростью доступа к любой ячейке памяти)

anonymous
()
Ответ на: комментарий от hargard

1. Объем кстати довольно большой, приложение сыпит как из пулемета. Но все равно я помню грепал гигабайтные файлы и норм, а тут ну оочень долго. За час фильтр, ну сколько там, допустил 50 мб насрет. Это много? Или по дате фильтрует долго. Не понять


2. Аватар крутой! )

gobot ★★★★
() автор топика
Ответ на: комментарий от thesis

Брат, а что ты быкуешь то сразу? Коли сказал про ключик этот, так приведи пример пожалуйста.

journalctl -u http –grep «session-update»
Failed to add match '–grep': Invalid argument

gobot ★★★★
() автор топика
Ответ на: комментарий от CrX

journalctl -u http --grep «play» -S -1h --no-pager

Также ооочень долго. По сути ничем не изменилось, если использовать пайп | grep

Зачем ты плодишь темы, если всё равно не читаешь ответов в них

Там другая тема была наверное, возможно я и не обратил должного внимания на ваш комментарий, извините пожалуйста

gobot ★★★★
() автор топика
Ответ на: комментарий от gobot

Расскажи

рассказываю: (с аллегорическими примерами)

твоё:

psql -c 'select * from heroboras' | grep ze_best_of_heroboras

из мана:

psql -c 'select * from heroboras where herobora=ze_best_of_heroboras'

в первом случае все твои миллионы херобор попадают в раму и потом по ним шуршит внешняя программа, во втором - используя внутренние оптимизированные алгоритмы поиска отсеивается нужное и возвращается тебе.

дабален, тебе уже сто раз разжевали, оказывается. просто все жеваторы у меня в игноре.

aol ★★★★★
()
Ответ на: комментарий от gobot

Также ооочень долго. По сути ничем не изменилось

Ну systemd он и есть systemd. Бывет, наверное.

Но комменты посоветую всё же читать — бывает всякое интересное и полезное, даже если не прям сейчас по теме, а как в прошлый раз — предвосхищая следующую ;)

CrX ★★★★★
()
Ответ на: комментарий от CrX

Да господи, что вы так въелись за эти темки. Вопросики одни же возникают спонтанно в контексте и что-то там перечитывать, искать... Повторяю - тема другая была, смежная, но все же другая. Голова вмещает только то, что нужно сейчас (Шерлок Холмс) От вас что убудет много, если магический ключик повторите в Nый раз? )

gobot ★★★★
() автор топика

Попробуй ripgrep, он пошустрей grep, вдруг тебе поможет.

Если тебе надо на одних данных сделать несколько поисков, я бы выгрузил логи в один текстовый файл и потом по нему бы искал через ripgrep. Это точно будет быстро.

А вообще для логов если специализированные системы, к примеру loki. При правильной настройке поиск будет очень быстрым, если искать по индексированным данным. Но это тема очень сложная.

В общем и в целом journald беспонтовый и ничего тут по большому счёту не сделать.

vbr ★★★★★
()
Последнее исправление: vbr (всего исправлений: 1)
Ответ на: комментарий от gobot

Голова вмещает только то, что нужно сейчас (Шерлок Холмс) От вас что убудет много, если магический ключик повторите в Nый раз? )

Да нет, не убудет. И повторили. Скорее просто беспокойство это вызывает, когда человек настолько теряет восприятие информации. Шерлок Холмс как раз держал в голове то, что ему полезно для дела, и замечал даже самые мелочи — в том числе те, которые прямо сейчас кажутся незначительными, но могут потом пригодиться или быть как-то привязаны к делу, при этом не забивая голову не относящейся к делу болтовнёй. У тебя противоположная ситуация — ты именно по делу не замечаешь, так что сравнение здесь вообще не уместно.

CrX ★★★★★
()
Последнее исправление: CrX (всего исправлений: 1)
Ответ на: комментарий от vbr

Да это понятно, но логами отдельно заниматься как-то времени нет. Они ведь нужны на этапе отладки в большинстве случаев, потом забьешь (до поры). Просто у меня никогда такой проблемы не возникало, поэтому интересуюсь «че-каво» )

gobot ★★★★
() автор топика
Ответ на: комментарий от gobot

Объем кстати довольно большой, приложение сыпит как из пулемета.

Это и есть ответ. journald пишет логи в свою БД. Уже видел, как journald давится большими объемами и начинает их дропать. А если отключить лимит, то давиться начинает уже диск

Если логов реально много, нафиг journald, пусть приложение пишет в файл

router ★★★★★
()