java web ui
Посоветуйте какие есть приложения в github на java с доступом web ui.
Хочу это приложение в docker установить. Нужно для тестов.
Посоветуйте какие есть приложения в github на java с доступом web ui.
Хочу это приложение в docker установить. Нужно для тестов.
Автодеплой Git–>Gitlab–>Kubernetes–>Traefik&NGINX->World
DEployment создаётся POD создаются(эти шаги работают)
А каким инструментом создаётся доступ пользователей к этим ресурсам снаружи ??
Нужно ещё Ingress сервис создать и т.п.
Нужен NGINX или Traefik обратный HTTP-прокси и балансировщик нагрузки .
Это все автоматом должно настраиваться при Git push.
Установил kubernetes на Debian(VirtualBox)Mem=5048,Cpu=2 В какую сторону копать ошибку???
стартую:
kubeadm init –control-plane-endpoint=$HOSTNAME
По началу ПОДы показывал,потом началось:
kubectl get pods –all-namespaces
The connection to the server node-01:6443 was refused - did you specify the right host or port?
journalctl -f -u kubelet.service
Dec 17 12:54:22 node-01 kubelet[797]: I1217 12:54:22.422257 797 scope.go:117] "RemoveContainer" containerID="05b0005a56c8d217fdf85fc552ab3ac631003678a90080fccd5a44b7eaf6f99b"
Dec 17 12:54:22 node-01 kubelet[797]: E1217 12:54:22.422718 797 pod_workers.go:1301] "Error syncing pod, skipping" err="failed to \"StartContainer\" for \"kube-controller-manager\" w ith CrashLoopBackOff: \"back-off 5m0s restarting failed container=kube-controller-manager pod=kube-controller-manager-node-01_kube-system(dcfb8f60d21e77af673e430a4091f4c8)\"" pod="kube-s ystem/kube-controller-manager-node-01" podUID="dcfb8f60d21e77af673e430a4091f4c8"
Dec 17 12:54:24 node-01 kubelet[797]: E1217 12:54:24.438127 797 kubelet.go:3117] "Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized"
Dec 17 12:54:25 node-01 kubelet[797]: I1217 12:54:25.454727 797 scope.go:117] "RemoveContainer" containerID="05b935247939a259d83e6463968bda857cc1c3c28473a684c5efbf7d60163f3b"
Dec 17 12:54:25 node-01 kubelet[797]: E1217 12:54:25.455866 797 pod_workers.go:1301] "Error syncing pod, skipping" err="failed to \"StartContainer\" for \"kube-apiserver\" with CrashLoopBackOff: \"back-off 5m0s restarting failed container=kube-apiserver pod=kube-apiserver-node-01_kube-system(2f88ee07fe379110744672da1a8923b3)\"" pod="kube-system/kube-apiserver-node-01" podUID="2f88ee07fe379110744672da1a8923b3"
Dec 17 12:54:27 node-01 kubelet[797]: I1217 12:54:27.469044 797 scope.go:117] "RemoveContainer" containerID="25b904a2237a91dbbfb79613c19816977b473fc370a30e03c1b5e636a8250216"
Dec 17 12:54:27 node-01 kubelet[797]: E1217 12:54:27.470882 797 pod_workers.go:1301] "Error syncing pod, skipping" err="failed to \"StartContainer\" for \"kube-proxy\" with CrashLoopBackOff: \"back-off 5m0s restarting failed container=kube-proxy pod=kube-proxy-q6qkc_kube-system(5542650e-f8d2-4fa8-82a1-cca6baf42fcc)\"" pod="kube-system/kube-proxy-q6qkc" podUID="5542650e-f8d2-4fa8-82a1-cca6baf42fcc"
Dec 17 12:54:28 node-01 kubelet[797]: E1217 12:54:28.651589 797 controller.go:145] "Failed to ensure lease exists, will retry" err="Get \"https://192.168.1.10:6443/apis/coordination.k8s.io/v1/namespaces/kube-node-lease/leases/node-01?timeout=10s\": dial tcp 192.168.1.10:6443: connect: connection refused" interval="7s"
Dec 17 12:54:28 node-01 kubelet[797]: E1217 12:54:28.780613 797 event.go:368] "Unable to write event (may retry after sleeping)" err="Patch \"https://192.168.1.10:6443/api/v1/namespaces/kube-system/events/kube-scheduler-node-01.18821052a502108b\": dial tcp 192.168.1.10:6443: connect: connection refused" event="&Event{ObjectMeta:{kube-scheduler-node-01.18821052a502108b kube-system 3172 0 0001-01-01 00:00:00 +0000 UTC <nil> <nil> map[] map[] [] [] []},InvolvedObject:ObjectReference{Kind:Pod,Namespace:kube-system,Name:kube-scheduler-node-01,UID:eb3bdd36cec9338c0ac264972d3ecaa9,APIVersion:v1,ResourceVersion:,FieldPath:spec.containers{kube-scheduler},},Reason:BackOff,Message:Back-off restarting failed container kube-scheduler in pod kube-scheduler-node-01_kube-system(eb3bdd36cec9338c0ac264972d3ecaa9),Source:EventSource{Component:kubelet,Host:node-01,},FirstTimestamp:2025-12-17 12:19:11 -0500 EST,LastTimestamp:2025-12-17 12:52:35.458928337 -0500 EST m=+2165.415672342,Count:142,Type:Warning,EventTime:0001-01-01 00:00:00 +0000 UTC,Series:nil,Action:,Related:nil,ReportingController:kubelet,ReportingInstance:node-01,}"
Dec 17 12:54:29 node-01 kubelet[797]: E1217 12:54:29.443856 797 kubelet.go:3117] "Container runtime network not ready" networkReady="NetworkReady=false reason:NetworkPluginNotReady message:Network plugin returns error: cni plugin not initialized"
Dec 17 12:54:30 node-01 kubelet[797]: I1217 12:54:30.485105 797 status_manager.go:895] "Failed to get status for pod" podUID="2f88ee07fe379110744672da1a8923b3" pod="kube-system/kube-apiserver-node-01" err="Get \"https://192.168.1.10:6443/api/v1/namespaces/kube-system/pods/kube-apiserver-node-01\": dial tcp 192.168.1.10:6443: connect: connection refused"
Dec 17 12:54:30 node-01 kubelet[797]: I1217 12:54:30.486821 797 status_manager.go:895] "Failed to get status for pod" podUID="dcfb8f60d21e77af673e430a4091f4c8" pod="kube-system/kube-controller-manager-node-01" err="Get \"https://192.168.1.10:6443/api/v1/namespaces/kube-system/pods/kube-controller-manager-node-01\": dial tcp 192.168.1.10:6443: connect: connection refused"
Dec 17 12:54:30 node-01 kubelet[797]: I1217 12:54:30.488659 797 status_manager.go:895] "Failed to get status for pod" podUID="eb3bdd36cec9338c0ac264972d3ecaa9" pod="kube-system/kube-scheduler-node-01" err="Get \"https://192.168.1.10:6443/api/v1/namespaces/kube-system/pods/kube-scheduler-node-01\": dial tcp 192.168.1.10:6443: connect: connection refused"
Dec 17 12:54:30 node-01 kubelet[797]: I1217 12:54:30.489371 797 status_manager.go:895] "Failed to get status for pod" podUID="5542650e-f8d2-4fa8-82a1-cca6baf42fcc" pod="kube-system/kube-proxy-q6qkc" err="Get \"https://192.168.1.10:6443/api/v1/namespaces/kube-system/pods/kube-proxy-q6qkc\": dial tcp 192.168.1.10:6443: connect: connection refused"
Dec 17 12:54:30 node-01 kubelet[797]: I1217 12:54:30.490248 797 status_manager.go:895] "Failed to get status for pod" podUID="51c670536858241606c4bad9a5634813" pod="kube-system/etcd-node-01" err="Get \"https://192.168.1.10:6443/api/v1/namespaces/kube-system/pods/etcd-node-01\": dial tcp 192.168.1.10:6443: connect: connection refused"
Dec 17 12:54:30 node-01 kubelet[797]: I1217 12:54:30.518076 797 scope.go:117] "RemoveContainer" containerID="e2a7510faecfe25de69adf5dcfaf75cb5d08f14560540791829c45de00002d64"
Dec 17 12:54:30 node-01 kubelet[797]: E1217 12:54:30.518386 797 pod_workers.go:1301] "Error syncing pod, skipping" err="failed to \"StartContainer\" for \"kube-scheduler\" with CrashLoopBackOff: \"back-off 5m0s restarting failed container=kube-scheduler pod=kube-scheduler-node-01_kube-system(eb3bdd36cec9338c0ac264972d3ecaa9)\"" pod="kube-system/kube-scheduler-node-01" podUID="eb3bdd36cec9338c0ac264972d3ecaa9"
^C
[b]kubectl events[/b]
LAST SEEN TYPE REASON OBJECT MESSAGE
8m11s Normal Starting Node/node-01 Starting kubelet.
8m11s Warning InvalidDiskCapacity Node/node-01 invalid capacity 0 on image filesystem
8m11s (x8 over 8m11s) Normal NodeHasSufficientMemory Node/node-01 Node node-01 status is now: NodeHasSufficientMemory
8m11s (x8 over 8m11s) Normal NodeHasNoDiskPressure Node/node-01 Node node-01 status is now: NodeHasNoDiskPressure
8m11s (x7 over 8m11s) Normal NodeHasSufficientPID Node/node-01 Node node-01 status is now: NodeHasSufficientPID
8m11s Normal NodeAllocatableEnforced Node/node-01 Updated Node Allocatable limit across pods
8m2s Normal Starting Node/node-01 Starting kubelet.
8m2s Warning InvalidDiskCapacity Node/node-01 invalid capacity 0 on image filesystem
8m2s Normal NodeAllocatableEnforced Node/node-01 Updated Node Allocatable limit across pods
8m2s Normal NodeHasSufficientMemory Node/node-01 Node node-01 status is now: NodeHasSufficientMemory
8m2s Normal NodeHasNoDiskPressure Node/node-01 Node node-01 status is now: NodeHasNoDiskPressure
8m2s Normal NodeHasSufficientPID Node/node-01 Node node-01 status is now: NodeHasSufficientPID
7m1s Normal RegisteredNode Node/node-01 Node node-01 event: Registered Node node-01 in Controller
6m58s Normal Starting Node/node-01
4m58s Normal Starting Node/node-01
4m34s Normal RegisteredNode Node/node-01 Node node-01 event: Registered Node node-01 in Controller
3m34s Normal Starting Node/node-01
kubectl get pods –all-namespaces
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system coredns-674b8bbfcf-nvm5q 0/1 Pending 0 46m
kube-system coredns-674b8bbfcf-zpkbl 0/1 Pending 0 46m
kube-system etcd-node-01 1/1 Running 63 (2m23s ago) 46m
kube-system kube-apiserver-node-01 1/1 Running 68 (2m16s ago) 46m
kube-system kube-controller-manager-node-01 0/1 CrashLoopBackOff 69 (45s ago) 47m
kube-system kube-proxy-gxhnz 1/1 Running 21 (62s ago) 46m
kube-system kube-scheduler-node-01 1/1 Running 77 (58s ago) 46m
Делаю
sudo bundle install
Ругается
Your Ruby version is 3.2.3, but your Gemfile specified >= 2.5.0, < 3.2.0
Как отремонтировать?
Перемещено Pinkbyte из linux-install
Избранные теги в профиле пользователя, какие у них возможности в работе сайта?
jenkinsfile авторизация jenkins+kubernetes настроена
в паплайне
Выдает ошибку
E1208 14:24:15.345004 54 memcache.go:265] "Unhandled Error" err="couldn't get current server API group list: Get \"http://localhost:8080/api?timeout=32s\": dial tcp [::1]:8080: connect: connection refused"
E1208 14:24:15.346319 54 memcache.go:265] "Unhandled Error" err="couldn't get current server API group list: Get \"http://localhost:8080/api?timeout=32s\": dial tcp [::1]:8080: connect: connection refused"
E1208 14:24:15.347793 54 memcache.go:265] "Unhandled Error" err="couldn't get current server API group list: Get \"http://localhost:8080/api?timeout=32s\": dial tcp [::1]:8080: connect: connection refused"
E1208 14:24:15.348271 54 memcache.go:265] "Unhandled Error" err="couldn't get current server API group list: Get \"http://localhost:8080/api?timeout=32s\": dial tcp [::1]:8080: connect: connection refused"
E1208 14:24:15.349647 54 memcache.go:265] "Unhandled Error" err="couldn't get current server API group list: Get \"http://localhost:8080/api?timeout=32s\": dial tcp [::1]:8080: connect: connection refused"
The connection to the server localhost:8080 was refused - did you specify the right host or port?```
В какую сторону копать?
запускаю докер контейнер->curl скачивает kubectl
потом назначить права и скопировать в /usr/local/bin/kubectl
/usr/local/bin/kubectl```
Вывод
```sudo: you do not exist in the passwd database```
Что ему надо?
Запускаю так:
```chmod +x ./kubectl && mv ./kubectl/usr/local/bin/kubectl```
Вывод
```mv: cannot create regular file '/usr/local/bin/kubectl': Permission denied```
Какие права тебе нужны?
Как новичку подскажите в какую сторону изучать. В pipline jenkins
agent {
kubernetes {
yaml '''
apiVersion: v1
kind: Pod
spec:
containers:
- name: debian
image: debian:latest
command:
- cat
tty: true
'''
}
}
stages {
stage('Run IP A ') {
steps {
container('debian') {
sh 'uname -a'
}
}
}
}
}
POD стартует выдает uname -a и завершает свою работу.
Может лучше Deployment развернуть?
Последняя версия Jenkins 2.528.2 https://get.jenkins.io/war-stable/2.528.2/
У кого установлена? Она стабильно работает?
Есть специалисты кто с ним работает? kubernetes файлы из внешнего мира перемещать в POD?
Приветствую! Есть у кого OID для ребута коммутатора DGS-3420-28TC ??
Приветствую! Перестал стартовать заббикс. В логах не понятное
Кто подскажет, куда копать??
3757:20200726:150944.106 Starting Zabbix Server. Zabbix 4.4.6 (revision 8cc702429d).
3757:20200726:150944.106 ****** Enabled features ******
3757:20200726:150944.106 SNMP monitoring: YES
3757:20200726:150944.106 IPMI monitoring: YES
3757:20200726:150944.106 Web monitoring: YES
3757:20200726:150944.106 VMware monitoring: YES
3757:20200726:150944.106 SMTP authentication: YES
3757:20200726:150944.106 ODBC: YES
3757:20200726:150944.106 SSH support: YES
3757:20200726:150944.106 IPv6 support: YES
3757:20200726:150944.106 TLS support: YES
3757:20200726:150944.106 ******************************
3757:20200726:150944.106 using configuration file: /etc/zabbix/zabbix_server.conf
3757:20200726:150944.114 current database version (mandatory/optional): 04040000/04040001
3757:20200726:150944.114 required mandatory version: 04040000
3757:20200726:150944.122 server #0 started [main process]
3758:20200726:150944.122 server #1 started [configuration syncer #1]
3758:20200726:150944.621 __mem_malloc: skipped 0 asked 24 skip_min 18446744073709551615 skip_max 0
3758:20200726:150944.621 [file:dbconfig.c,line:94] __zbx_mem_realloc(): out of memory (requested 24 bytes)
3758:20200726:150944.621 [file:dbconfig.c,line:94] __zbx_mem_realloc(): please increase CacheSize configuration parameter
3758:20200726:150944.621 === memory statistics for configuration cache ===
3758:20200726:150944.621 min chunk size: 18446744073709551615 bytes
3758:20200726:150944.621 max chunk size: 0 bytes
3758:20200726:150944.621 memory of total size 8388232 bytes fragmented into 72175 chunks
3758:20200726:150944.621 of those, 0 bytes are in 0 free chunks
3758:20200726:150944.621 of those, 7233448 bytes are in 72175 used chunks
3758:20200726:150944.621 ================================
3758:20200726:150944.621 === Backtrace: ===
3758:20200726:150944.622 11: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](zbx_backtrace+0x3f) [0x5558b78d102d]
3758:20200726:150944.622 10: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](__zbx_mem_realloc+0x160) [0x5558b78cc612]
3758:20200726:150944.622 9: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](+0x175b4a) [0x5558b7895b4a]
3758:20200726:150944.622 8: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](+0x180f9f) [0x5558b78a0f9f]
3758:20200726:150944.622 7: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](DCsync_configuration+0x1157) [0x5558b78a22fa]
3758:20200726:150944.622 6: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](dbconfig_thread+0x10c) [0x5558b776e419]
3758:20200726:150944.622 5: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](zbx_thread_start+0x37) [0x5558b78debea]
3758:20200726:150944.622 4: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](MAIN_ZABBIX_ENTRY+0x97d) [0x5558b7761434]
3758:20200726:150944.622 3: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](daemon_start+0x2ff) [0x5558b78d0818]
3758:20200726:150944.622 2: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](main+0x2f5) [0x5558b7760ab5]
3758:20200726:150944.622 1: /lib64/libc.so.6(__libc_start_main+0xf3) [0x7f0f21282873]
3758:20200726:150944.622 0: /usr/sbin/zabbix_server: configuration syncer [syncing configuration](_start+0x2e) [0x5558b775fb7e]
3757:20200726:150944.624 One child process died (PID:3758,exitcode/signal:1). Exiting ...
3757:20200726:150944.626 syncing trend data...
3757:20200726:150944.626 syncing trend data done
3757:20200726:150944.626 Zabbix Server stopped. Zabbix 4.4.6 (revision 8cc702429d).
Приветствую! Нужна помощь в настройке SNMP
На коммутаторе DGS-3420-28TC настраиваем SNMP при помоши офф.мануала
1 create snmp group reboot-comm v3 authPriv read_view CommunityView write_view CommunityView notify_view CommunityView 2 create snmp user reboot-user reboot-comm encrypted by_password auth md5 ХХХХХХХХ priv des ХХХХХХХХ
3 create snmp community reboot-comm view CommunityView read_write
4 create snmp host 192.1ХХ.Х.ХХ v3 auth_priv reboot-user
5 save
Далее пытаемся законнектится с другова хоста при помощи snmpwalk
snmpwalk -v 3 -u reboot-user -l authPriv -A ХХХХХХХХ -a MD5 -x DES 192.1ХХ.Х.ХХХ
Вылетает ошибка:
snmpwalk: USM generic error
Кто сталкивался с таким?? Может я где ошибку совершил.
Возможно-ли на FreeNAS сделать инсталляцию отказоустойчивой ОС.
К примеру я могу на Linux поднять RAID-1 на MDADM в GRUB прописать загрузку с любого из 2-ух HDD и в случае выхода из строя 1-ого диска у меня загрузка ОС будет успешна.
Необходимо файловое хранилище - 2 рейда 1-ого левела.
Хочется настроить что-бы git авторизовался из баззы redmine,через web_dav.
Схема
local_network-->nginx--mongrel_cluster--redmine
|
apache-mod_dav-->redmine.pm-->mysql .
Имеем:
Redmine 1.0.0.stable (MySQL)
gem -v
1.3.5
rails -v
Rails 2.3.5
ruby -v
ruby 1.8.6 (2010-02-05 patchlevel 399) [x86_64-linux]
[b]/etc/httpd/conf.d/redmine.conf[/b]
PerlLoadModule Apache::Redmine
<Location /redmine_git>
DAV on
#SVNParentPath «/redmine_git»
AuthType Basic
AuthName «Git authorization Redmine»
Require valid-user
PerlAccessHandler Apache::Authn::Redmine::access_handler
PerlAuthenHandler Apache::Authn::Redmine::authen_handler
# for mysql
RedmineDSN «DBI:mysql:database=redmine;host=localhost»
RedmineDbUser «*******»
RedmineDbPass «*******»
</Location>
## a private location in read only mode to allow Redmine browsing
<Location /redmine_git>
DAV on
#SVNParentPath «/redmine_git»
Order deny,allow
Allow from all
# only allow reading orders
<Limit GET PROPFIND OPTIONS REPORT>
Allow from all
</Limit>
</Location>
###############################################################33
Окошко с вводом пароля появляется, в логах mysql:
115 Connect redmine@localhost on redmine
115 Query set autocommit=1
115 Query SELECT hashed_password, auth_source_id, permissions FROM members, projects, users, roles, member_roles WHERE projects.id=members.project_id AND member_roles.member_id=members.id AND users.id=members.user_id AND roles.id=member_roles.role_id AND users.status=1 AND login='tester' AND identifier=NULL
115 Quit
Но в упор не пускает.
Права все от apache юзера,как на запуск mongrel_cluster так на папки redmine и .git дерикторий,назначены правильно.
В редмайне права пользователям на проект назначены правильно.
Куда копать в какую сторону?
Как в git сделать что бы после коммита,автоматом копировалось в определёный каталог. Читал много и везде так и не пришло понимание. Хотя-бы в какую сторону искать?
Ос CentOS5 x64
OpenVZ установил yum-ом.
yum install vzpkg.noarch
Вылетает ошибка.
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
* addons: ftp.chg.ru
* updates: ftp.chg.ru
* openvz-utils: mirror.xfes.ru
* extras: ftp.chg.ru
* base: ftp.chg.ru
* openvz-kernel-rhel5: mirror.xfes.ru
Setting up Install Process
Parsing package install arguments
Resolving Dependencies
--> Running transaction check
---> Package vzpkg.noarch 0:2.7.0-18 set to be updated
--> Processing Dependency: vzyum >= 2.4.0-5 for package: vzpkg
--> Running transaction check
---> Package vzyum.noarch 0:2.4.0-11 set to be updated
--> Processing Dependency: cElementTree.so for package: vzyum
--> Finished Dependency Resolution
vzyum-2.4.0-11.noarch from openvz-utils has depsolving problems
--> Missing Dependency: cElementTree.so is needed by package vzyum-2.4.0-11.noarch (openvz-utils)
Error: Missing Dependency: cElementTree.so is needed by package vzyum-2.4.0-11.noarch (openvz-utils)
Осталось немного, не колется кокос.
Какие будут идей,в гуугле только
http://forum.openvz.org/index.php?t=msg&goto=13415&
Есть проблемка в IRQ прерываний.
ОС ubuntu-server
Сервер Dell Power Edge 2950 в него через raiser переходник
PCI Digium TDM400P/
Ставлю драйвер и ОС зависает , проблема в прерываний плата Digium TDM400P забирает прерывание которое на eth0.
Пробовал грузится с опциями acpi=off noapic но плата не видна при этом.
Можно как то вручную добавить IRQ прерывание для платы Digium TDM400P ??
Установил сперва cacti потом joomla сегодня утром ребутнул и пропали все баззы под рутом без пароля входит ,а до этого пароль был. Сижу в шоке .
Необходим почтовый сервер с вэб управлением и квотами для юзеров. Квоты на использование свободного места на жётском диске. Exim+mysql с вэб панелью от постфикса сейчас стоит тока квоты там делать не возможно.
| следующие → |