человеку не паттерн нужен...
автоматически, как сделать - не разбирался.
А вручную - копируем в новый файл, тот, строки которого нужно
удалить. Ставим разделитель - например, длинную строку минусов.
Добавляем к нему второй файл. А потом - удаляем дублирующиеся строки, например, пропускаем это всё через deldup:
=== cut ===
#!/usr/bin/perl -w
use strict;
my %hash;
while(<>)
{
next if $hash{$_};
$hash{$_} = 1;
print $_;
}
=== cut ===
А потом ручками вырезаем начало результата до нашего разделителя.
Т.е.:
cp file1.txt file-tmp.txt
echo ----------------------------------- >> file-tmp.txt
cat file2.txt file-tmp.txt
cat file-tmp.txt|deldup > file-tmp2.txt
mcedit file-tmp2.txt
Да неужели? А ты читал вышеизложенное? Именно этими понятиями человек и оперировал..
Я полагаю, не составит затруднения, к примеру, в цикле, организовать чтение строк из одного файла с последующим удалением их в другом, или переносом ещё куда..
Ещё, из вышеизложенного я понял, что человек желал бы это организовать средствами shell, и вспомогательными, awk, grep, sed etc...
А так да, конечно, мне к примеру, сначала сразу же пришла на ум мысль кинуть в качестве примера код на C-ях.. Ну вот, тобой использованный perl неплох, на python это удобно делать, ruby..
Давай ка лучше предоставим человеку самому решать, что и как ему лучше и надо.. Хорошо?
Да мне тоже на Перле не сложно сделать, но не хочется ради одно скрипта тянуть кучу тяжеловесов. Ядрышки компактные. Вот и приходится обходиться минимальным набором.
>Я полагаю, не составит затруднения, к примеру, в цикле, организовать чтение строк из одного файла с последующим удалением их в другом, или переносом ещё куда..
Конечно, не составит. Только это делается не за минуту, как с выгеприведённым "скриптом" (вообще, удаление дублирующихся строк в файле строк - задача у меня встречающася очень часто), а минут за 5.
А человек - может не знать ни перла, ни питона, ни, тем более, Си.
>Давай ка лучше предоставим человеку самому решать, что и как ему лучше и надо..