LINUX.ORG.RU

Что взять для решения такой задачи?

 ,


0

1

Есть несколько файлов формата excel. В каждом по несколько тысяч строк(инфо о пользователях). Нужно все это добавить в бд. Какая субд быстрее запишет рез-т и какой яп быстрее справиться?

Какая субд быстрее запишет рез-т и

Та, которую быстрее поднимешь.

какой яп быстрее справиться

Тот, который лучше знаешь.

Igron ★★★★★ ()

Какая субд быстрее запишет рез-т …?

Которая быстрее запустится. Рекомендую распоследний oracle.

какой яп быстрее справиться?

Которая быстрее запустится. Рекомендую pl/sql.

anonymous ()
Ответ на: комментарий от dem

(Анти)реклама этих продуктов не проплачена (конкурентами). Хотя, эта тоже. :)

По делу. Чем плох excel как «база данных»? Зачем нужны еще одна бд и еще один яп?

anonymous ()

Нет такой задачиб Вопрос полностью отвечен

Но он был неправильный В любую СУБД эти жалкие файлы запишутся за несколько секунд или десятковсю секунд. Скорость ешё зависит от умения пользоватьсяь Так что выбирать самую быструю СУБД по этому признаку бессмысленно. Выбирать надо по полезности СУБД и своим возможностям ей обучиться (а для коммерческой СУБД - есть ли деньги). Наприпер, надо рассмотреть обеспечение сохранности данных и высокой доступности базы. В общем, подумать, как вы будете пользоваться.

Само копирование таблиц в базу можно запрограммировать на разнообразных языках, а такде сделать без программирования. Выбор языка ограничивается тем, есть ли в нём возможность чтения файлов Excel. Если нет, то их предаврмтельно можнотжкспортировать например в CSV , но на это потратятся ценимые вами секунды. Ещё ограничение - некоторые языки - не для тупых и требуют существеннвх усилий для изучения.

Partisan ★★★ ()

Автор темы не знает ни одной СУБД, поэтому задал вопрос неправильно. Ему надо узнать, для чего ему СУБД. Любую придётся изучать. По сравнению с этим копирование данных из Excel - мелкий вопрос, хотя решение зависит от СУБД и способностей к программированию СУБД выбирать исходя из её полезночти для работы, а не лёкэгкости импорта из CSV. Например, тут рекомендовали неую SQLite но из CSV файла импорт в более мощную PostgreSQL делается так же легко.

Итак, нужно думать над тем, какую работу надо выполнять с данными после имаорта в базу. На основании этого лелать выбор.

Почтм в любую базу можно сделать иморт из Excel без программирования и без преобразования в CSV с помощью готовых программных средств. Например, Pentaho Data Integration. Чтобы настроить в ней такой импорт, хватитинесколтких минут. Но для освоения Pentaho Data Integration на элементарном уровне нужна неделя. Есть и другие средства сделатт импорт без программирования. Приходилось мне делать такой импорт на Java. Запрограммировать - немногочисленные часы, изучать Java - гораздо больше времени. Кто не умеет программировать, проще заняться Python-ом - в нём это тоже можно сделать, хотя наверно будет работать медленнее. Но и для изучения Python-а нужно немалое время. В обшем, кто не умеет программировать, тому обходиться без программирования.

Partisan ★★★ ()
Ответ на: комментарий от dem

Excel … 500 страниц … 20 минут

Выкинь свой калькулятор прошлого века.

И вообще, какие, нахер, страницы в Excel? Как захочешь так и разобьет перед печатью.

А вот таблица на 500 страниц в Word’е…

anonymous ()