LINUX.ORG.RU

Сообщения chemtech

 

Как исправить ошибку undefined: gonx.NewParserReader в проекте nginx-clickhouse

Форум — Development

Кто-нибудь пожет подсказать:

Пытаюсь скомпилировать https://github.com/mintance/nginx-clickhouse

Поправил неправильные пути, добавил go mod. но появляется ошибка: nginx/nginx.go:67:12: undefined: gonx.NewParserReader

Но эта функция уже есть https://github.com/satyrius/gonx/blob/master/reader.go#L20

Полный лог моих действий после полной очистки GOPATH

```
git clone https://github.com/mintance/nginx-clickhouse.git
cd nginx-clickhouse
go mod init github.com/mintance/nginx-clickhouse
find ./ -type f -exec sed -i 's/Sirupsen/sirupsen/g' {} \;
go get
go build
```
nginx/nginx.go:67:12: undefined: gonx.NewParserReader

Спасибо.

 ,

chemtech
()

Possibly broken link github.com/cespare/xxhash/v2

Форум — Development

День добрый!

Собираю https://github.com/mintance/nginx-clickhouse.

Появляется вот такая ошибка:

https://github.com/mintance/nginx-clickhouse/issues/6

[ERROR] Error scanning github.com/cespare/xxhash/v2: open /user/.glide/cache/src/https-github.com-cespare-xxhash/v2: no such file or directory
Error was encountered at 'make dependencies' step, an attempt to follow github.com/cespare/xxhash/v2 had 404 response.

Кто-нибудь знает как ее чинить?

 , ,

chemtech
()

Кто нибудь использовал nginx_upstream_check_module?

Форум — Admin

Я собрал nginx 1.14 и nginx 1.16 c nginx_upstream_check_module из мастер ветки c помощью https://github.com/TinkoffCreditSystems/Nginx-builder

Конфиг Nginx-builder:

nginx_version: 1.14.2
output_package: rpm
modules:
  - module:
      name: nginx-module-vts
      git_url: https://github.com/vozlt/nginx-module-vts.git
      git_tag: v0.1.18
  - module:
      name: nginx_upstream_check_module
      git_url: https://github.com/yaoweibin/nginx_upstream_check_module.git
      git_branch: master

Для эмуляции сервиса использовал mockify. Конфиг mockify:

routes200.yaml:

---
- route: "/"
  methods:
    - GET
  responses:
    - uri: "/"
      method: GET
      statusCode: 200
      body:
        message: 200\n

routes503.yaml:

---
- route: "/"
  methods:
    - GET
  responses:
    - uri: "/"
      method: GET
      statusCode: 503
      body:
        message: 503\n

Конфиг nginx.conf:

user  nginx;
worker_processes  auto;
worker_rlimit_nofile 40960;

error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;

events {
    use epoll;
    worker_connections 1024;
    multi_accept on;
}

http {
    vhost_traffic_status_zone;
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log /var/log/nginx/access.log main;
    #access_log off;

    sendfile on;
    tcp_nodelay on;
    tcp_nopush on;

    keepalive_timeout  65;

    #gzip  on;

    include /etc/nginx/conf.d/*.conf;
    open_file_cache max=200000 inactive=20s;
    open_file_cache_valid 30s;
    open_file_cache_min_uses 2;
    open_file_cache_errors on;

}

Конфиг виртуального хоста:

upstream backend {
    server 127.0.0.1:8002; # 200 http code
    server 127.0.0.1:8003; # 200 http code
    server 127.0.0.1:8004; # 200 http code
    server 127.0.0.1:8005; # 200 http code
    server 127.0.0.1:8006; # 503 http code
    check interval=3000 rise=2 fall=5 timeout=1000 default_down=true type=http;
    check_http_send "HEAD / HTTP/1.0\r\n\r\n";
    check_http_expect_alive http_2xx http_3xx;
}

server {
    listen   80;
    server_name vhost1;
    location / {
            proxy_pass http://backend;
    }

    location /status {
        check_status;
    }

}

Запускаю проверку с помощью curl в цикле:

while true; do curl -i  http://vhost1/; sleep 1; done

Получаю вот что:

200\nHTTP/1.1 200 OK
Server: nginx/1.14.2
Date: Tue, 19 Nov 2019 12:50:05 GMT
Content-Type: text/plain; charset=utf-8
Content-Length: 5
Connection: keep-alive

200\nHTTP/1.1 503 Service Unavailable
Server: nginx/1.14.2
Date: Tue, 19 Nov 2019 12:50:06 GMT
Content-Type: text/plain; charset=utf-8
Content-Length: 5
Connection: keep-alive

503\nHTTP/1.1 503 Service Unavailable
Server: nginx/1.14.2
Date: Tue, 19 Nov 2019 12:50:07 GMT
Content-Type: text/plain; charset=utf-8
Content-Length: 5
Connection: keep-alive

Проверка модулей:

nginx -V
nginx version: nginx/1.14.2
built by gcc 4.8.5 20150623 (Red Hat 4.8.5-39) (GCC) 
configure arguments: 
--prefix=/etc/nginx 
--sbin-path=/usr/sbin/nginx 
--conf-path=/etc/nginx/nginx.conf 
--modules-path=/usr/lib/nginx/modules 
--error-log-path=/var/log/nginx/error.log 
--pid-path=/var/run/nginx.pid 
--lock-path=/var/lock/nginx.lock 
--http-log-path=/var/log/nginx/access.log 
--http-client-body-temp-path=/var/cache/nginx/client_temp 
--http-proxy-temp-path=/var/cache/nginx/proxy_temp 
--http-fastcgi-temp-path=/var/cache/nginx/fastcgi_temp 
--http-uwsgi-temp-path=/var/cache/nginx/uwsgi_temp 
--http-scgi-temp-path=/var/cache/nginx/scgi_temp 
--with-debug 
--user=nginx 
--group=nginx 
--with-pcre-jit 
--with-compat 
--with-file-aio 
--with-threads 
--with-stream 
--with-cc-opt= 
--with-ld-opt= 
--add-module=/root/rpmbuild/SOURCES/modules/nginx-module-vts 
--add-module=/root/rpmbuild/SOURCES/modules/nginx_upstream_check_module 
--with-cc-opt='-O2 -g -pipe -Wall -Wp,-D_FORTIFY_SOURCE=2 -fexceptions -fstack-protector-strong 
--param=ssp-buffer-size=4 -grecord-gcc-switches -m64 -mtune=generic -fPIC' 
--with-ld-opt='-Wl,-z,relro -Wl,-z,now -pie'

 

chemtech
()

Написать инструкцию по настройке кластера LeoFS Storage System для S3

Форум — Job

Есть проект https://github.com/leo-project/leofs Не удается установить LeoFS Storage System на несколько нод через их официальный ansible playbook https://github.com/leo-project/leofs_ansible/issues/4

Есть вот такая немного запутанная инструкция https://leo-project.net/leofs/docs/admin/system_admin/multiple_nodes/

Нужно написать инструкцию по настройке кластера LeoFS Storage System на несколько нод для S3 для CentOS 7.

Заказ тут https://freelansim.ru/tasks/274743

 ,

chemtech
()

Кто настраивал LeoFS на несколько нод в режиме кластера поделитесь пожалуйста инструкцией по настройке.

Форум — Admin

Кто настраивал LeoFS на несколько нод в режиме кластера поделитесь пожалуйста инструкцией по настройке.

Пытался установить LeoFS через официальный ansible-playbook: https://github.com/leo-project/leofs_ansible

Выдает ошибку: https://github.com/leo-project/leofs_ansible/issues/4

Заранее спасибо.

 ,

chemtech
()

Можно ли пустить трафик между брокерами kafka через вторую сетевую карту через другой коммутатор

Форум — Admin

Есть кафра сервера. На них установлены kafka брокеры.

Кафка сервера и клиенты подключены к единому коммутатору.

Есть идея добавить еще один коммутатор и увеличить пропускную способности сети Kafka.

На картинке я это отобразил.

https://habrastorage.org/webt/wz/ew/s3/wzews3at4paut0ckeuya4ecpj40.jpeg

Подскажите пожалуйста кто имел опыт с kafka.

Возможна ли такая схема? Можно ли пустить трафик между брокерами через вторую сетевую карту через другой коммутатор?

Спасибо

 

chemtech
()

Добавить поддержку NAT сети в terraform-provider-virtualbox

Форум — Job

Добрый день!

Заказ разместил здесь:

https://freelansim.ru/tasks/272253

Есть terraform провайдер для virtualbox https://github.com/terra-farm/terraform-provider-virtualbox

В нем отсутствует поддержка Сети NAT.

Вот ссылки на документацию сети NAT для virtualbox

https://www.virtualbox.org/manual/ch06.html#network_nat_service

https://www.virtualbox.org/sdkref/interface_i_network_adapter.html#a7cdb4cf56...

https://www.virtualbox.org/manual/ch08.html#vboxmanage-natnetwork

Я уже пытался добавить сеть NAT в terraform-provider-virtualbox, но оно не работало

Больше ссылок и информации здесь.

https://github.com/terra-farm/terraform-provider-virtualbox/issues/75

Скорее всего нужно будет добавить в библиотеку go-virtualbox.

Вот мои наработки - https://github.com/terra-farm/go-virtualbox/pull/11

 , ,

chemtech
()

mvn scm:add You must provide at least one file/directory to add

Форум — Development

Есть репо https://gitlab.com/anton_patsev/maven-release-example3

В последнем шаге вызываю

#!/bin/bash

mvn --quiet build-helper:parse-version versions:set -DnewVersion=\${parsedVersion.majorVersion}.\${parsedVersion.minorVersion}.\${parsedVersion.nextIncrementalVersion} -DgenerateBackupPoms=false -DprocessAllModules versions:commit
mvn --quiet scm:add -Dmessage="maven-scm" -Dincludes=\${base.dir}/pom.xml -DpushChanges=false
mvn --quiet scm:checkin -Dmessage="[maven-scm] prepare release"

Появляется ошибка:

$ ./mvn_build_helper.sh
9253 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-scm-plugin:1.11.2:add (default-cli) on project maven-release-example3: Cannot run add command : : Exception while executing SCM command. You must provide at least one file/directory to add -> [Help 1]
9283 [ERROR] 
9284 [ERROR] To see the full stack trace of the errors, re-run Maven with the -e switch.
9284 [ERROR] Re-run Maven using the -X switch to enable full debug logging.

Вот лог https://gitlab.com/anton_patsev/maven-release-example3/-/jobs/316396805

Что это может быть? Как исправить?

 

chemtech
()

Изменение bugfix версии в maven в pom.xml

Форум — Development

Есть репо https://gitlab.com/anton_patsev/maven-release-example

Там присутствует только 1 CI таска - maven release

Если делать коммит, то запускается maven release

Обычно при maven release меняется вторая цифра.

Но в этом случае меняется версия bugfix.

Не могу понять почему. Может быть добавлена какая нибудь опция?

 ,

chemtech
()

Как записать переменную attr в файл в terraform-provider-virtualbox ?

Форум — Development

Пытаюсь добавить поддержку NatNetwork для terraform-provider-virtualbox.

Подскажите пожалуйста как записать переменную attr в файл в terraform-provider-virtualbox ?

Вот такой код файл не пишет переменную attr в файл

Это не просто программа - это плагин к terraform

func netTfToVbox(d *schema.ResourceData) ([]vbox.NIC, error) {
	tfToVboxNetworkType := func(attr string) (vbox.NICNetwork, error) {
		fmt.Println("WARNING: ------------------------ attr")
		fmt.Println(attr)
		switch attr {
		case "bridged":
			return vbox.NICNetBridged, nil
		case "nat":
			return vbox.NICNetNAT, nil
		case "hostonly":
			return vbox.NICNetHostonly, nil
		case "internal":
			return vbox.NICNetInternal, nil
		case "generic":
			return vbox.NICNetGeneric, nil
		default:
			mydata := []byte(attr)
			err := ioutil.WriteFile("tfToVboxNetworkType.txt", mydata, 0777)
			if err != nil {
				fmt.Println(err)
			}
			return ""
		}
	}

 

chemtech
()

Пытаюсь запустить 3 ноды ubuntu с 3 дисками в vagrant

Форум — Development

Пытаюсь запустить 3 ноды ubuntu с 3 дисками в vagrant.

У кого-нибудь получилось такое сделать?

Ниже рабочий vagrantfile с 3 ноды centos7 с 3 дисками.

Но для ubuntu он не работает.

Спойлер cut не работает.

https://pastebin.com/ikBLiKXj

В процессе экпериментов дошел до такого Vagrantfile.

Но система загрузится не может

https://pastebin.com/gzw2j3Qg

VBoxManage showvminfo говорит:

Storage Controller Name (0):            SCSI
Storage Controller Type (0):            LsiLogic
Storage Controller Instance Number (0): 0
Storage Controller Max Port Count (0):  16
Storage Controller Port Count (0):      16
Storage Controller Bootable (0):        on
Storage Controller Name (1):            IDE
Storage Controller Type (1):            ICH6
Storage Controller Instance Number (1): 0
Storage Controller Max Port Count (1):  2
Storage Controller Port Count (1):      2
Storage Controller Bootable (1):        on
SCSI (0, 0): /home/user/VirtualBox VMs/vagrant-openio-multi-nodes_node1_1565541256124_28246/ubuntu-bionic-18.04-cloudimg.vmdk (UUID: 9b9b05cc-d359-428e-a4c5-91391eb7e0e3)
SCSI (1, 0): /home/user/VirtualBox VMs/vagrant-openio-multi-nodes_node1_1565541256124_28246/ubuntu-bionic-18.04-cloudimg-configdrive.vmdk (UUID: 5e47924d-2ad2-4096-9a58-7b97d2ffcbd8)
IDE (0, 1): /home/user/github/vagrant-openio-multi-nodes/tmp/node1disk1.vdi (UUID: d2ef2936-f296-483c-9336-04b5bbd417e9)
IDE (1, 0): /home/user/github/vagrant-openio-multi-nodes/tmp/node1disk2.vdi (UUID: 2673732a-edf3-48f2-8ecb-50af82b1d2e5)
IDE (1, 1): /home/user/github/vagrant-openio-multi-nodes/tmp/node1disk3.vdi (UUID: f2243189-ebba-496a-aab8-cb97f68b4038)

У кого-нибудь получилось запустить 3 ноды ubuntu с 3 дисками в vagrant?

 

chemtech
()

Maven require package1 or package2

Форум — Development

Имеется maven pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <modelVersion>4.0.0</modelVersion>
    <groupId>org.apache</groupId>
    <artifactId>apache-maven</artifactId>
    <version>3.3.9</version>
    <packaging>rpm</packaging>

    <properties> 
       <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
       <rpm.app.path>/var/lib/${project.artifactId}</rpm.app.path>
       <rpm.run.user>root</rpm.run.user>
    </properties>

    <build>

        <plugins>
            <plugin>
              <groupId>org.apache.maven.plugins</groupId>
              <artifactId>maven-dependency-plugin</artifactId>
              <version>2.8</version>
              <executions>
                <execution>
                  <id>unpack-zip</id>
                  <phase>initialize</phase>
                  <goals>
                    <goal>unpack</goal>
                  </goals>
                  <configuration>
                       <artifactItems>
                         <artifactItem>
                           <groupId>org.apache</groupId>
                           <artifactId>apache-maven</artifactId>
                           <version>${project.version}</version>
                           <type>zip</type>
                           <overWrite>true</overWrite>
                         </artifactItem>
                       </artifactItems>
                    <outputDirectory>${project.build.directory}</outputDirectory>
                    <overWriteReleases>true</overWriteReleases>
                    <overWriteSnapshots>true</overWriteSnapshots>
                  </configuration>
                </execution>
              </executions>
            </plugin>           

            <plugin>
                <groupId>org.codehaus.mojo</groupId>
                <artifactId>rpm-maven-plugin</artifactId>
                <version>2.1.2</version>
                <extensions>true</extensions>
                <configuration>
                    <release>1</release>
                    <license>Apache License 2.0</license>
                    <group>Applications/System</group>
                    <defaultUsername>${rpm.run.user}</defaultUsername>
                    <defaultUsername>${rpm.run.user}</defaultUsername>
                    <defaultGroupname>${rpm.run.user}</defaultGroupname>
                    <defaultFileMode>755</defaultFileMode>
                    <requires>
                        <require>openjdk7</require>
                    </requires>
                    <mappings>
                        <mapping>
                            <directory>${rpm.app.path}</directory>
                            <sources>
                                <source>
                                    <location>${project.build.directory}/${project.build.finalName}</location>
                                </source>
                            </sources>
                        </mapping>
                   </mappings>
                </configuration>
            </plugin>
        </plugins>
    </build>
</project>

Как бы использовать maven, который требовал либо openjdk7 либо openjdk8 либо openjdk11? Спасибо

 

chemtech
()

Кто-нибудь тестировал ideal platform for developers - nanobox-io?

Форум — Development

Кто-нибудь тестировал ideal platform for developers - https://github.com/nanobox-io/nanobox

Сайт https://nanobox.io/ почему-то у них недоступен.

Можно ли использовать nanobox только для локальной разработки как vagrant?

Кто использовал - поделитесь пожалуйста опытом.

 

chemtech
()

Диск в vagrant создаете в 10 MiB, хотя раньше создавался правильным размером.

Форум — Admin

Имеется Vagrantfile

https://gist.github.com/patsevanton/707c9eba3b386814cf9e837301bd3fff

При запуске говорит

    node1: /mnt/data1: wrong fs type, bad option, bad superblock on /dev/sdb1, missing codepage or helper program, or other error.

Fdisk говорит

fdisk -l
Disk /dev/sdb: 10 MiB, 10485760 bytes, 20480 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x2bb02858

Device     Boot Start   End Sectors Size Id Type
/dev/sdb1           1 20479   20479  10M 83 Linux

Хостовая система Ubuntu 18.10

vagrant 2.2.5

virtualbox 5.2.18-dfsg-2ubuntu18.10.1

Что может быть?

 ,

chemtech
()

Установка openio выдает ошибку OPENIO-oioproxy-0 No such file or directory и PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused

Форум — Admin

OpenIO SDS is a scalable open-source object storage solution. It is compatible with Amazon S3 and OpenStack Swift. Using OpenIO SDS, it is easy to scale a storage infrastructure from a simple cluster of a few terabytes to a multi-petabyte platform. OpenIO SDS is hardware-agnostic and can be installed on both x86 and ARM hardware.

Кто-нибудь устанавливал OpenIO SDS ?

Устанавливаю OpenIO SDS по этой инструкции

https://docs.openio.io/latest/source/sandbox-guide/multi_nodes_install.html#r...

Написал Vagrantfile для развертывания 3 нод - https://github.com/patsevanton/vagrant-openio-multi-nodes

Написал скрипт для для запуска команд.

При запуске получаю 2 блока ошибок:

Первый блок:

TASK [namespace : restart oioproxy] ************************************************************************************************************
Friday 09 August 2019  14:18:05 +0600 (0:00:00.472)       0:07:11.913 ********* 
fatal: [node1]: FAILED! => {"changed": true, "cmd": "gridinit_cmd reload\ngridinit_cmd restart OPENIO-oioproxy-0\n", "delta": "0:00:00.025171", "end": "2019-08-09 08:18:05.319351", "msg": "non-zero return code", "rc": 1, "start": "2019-08-09 08:18:05.294180", "stderr": "", "stderr_lines": [], "stdout": "DONE    \tobsoleted 2 processes\tSuccess\nDONE    \treload\tSuccess\nDONE    \tdisabled 0 obsolete processes\tSuccess\nFAILED  \tOPENIO-oioproxy-0\tNo such file or directory", "stdout_lines": ["DONE    \tobsoleted 2 processes\tSuccess", "DONE    \treload\tSuccess", "DONE    \tdisabled 0 obsolete processes\tSuccess", "FAILED  \tOPENIO-oioproxy-0\tNo such file or directory"]}
...ignoring
fatal: [node3]: FAILED! => {"changed": true, "cmd": "gridinit_cmd reload\ngridinit_cmd restart OPENIO-oioproxy-0\n", "delta": "0:00:00.026003", "end": "2019-08-09 08:18:05.402437", "msg": "non-zero return code", "rc": 1, "start": "2019-08-09 08:18:05.376434", "stderr": "", "stderr_lines": [], "stdout": "DONE    \tobsoleted 2 processes\tSuccess\nDONE    \treload\tSuccess\nDONE    \tdisabled 0 obsolete processes\tSuccess\nFAILED  \tOPENIO-oioproxy-0\tNo such file or directory", "stdout_lines": ["DONE    \tobsoleted 2 processes\tSuccess", "DONE    \treload\tSuccess", "DONE    \tdisabled 0 obsolete processes\tSuccess", "FAILED  \tOPENIO-oioproxy-0\tNo such file or directory"]}
...ignoring
fatal: [node2]: FAILED! => {"changed": true, "cmd": "gridinit_cmd reload\ngridinit_cmd restart OPENIO-oioproxy-0\n", "delta": "0:00:00.025974", "end": "2019-08-09 08:18:05.402872", "msg": "non-zero return code", "rc": 1, "start": "2019-08-09 08:18:05.376898", "stderr": "", "stderr_lines": [], "stdout": "DONE    \tobsoleted 2 processes\tSuccess\nDONE    \treload\tSuccess\nDONE    \tdisabled 0 obsolete processes\tSuccess\nFAILED  \tOPENIO-oioproxy-0\tNo such file or directory", "stdout_lines": ["DONE    \tobsoleted 2 processes\tSuccess", "DONE    \treload\tSuccess", "DONE    \tdisabled 0 obsolete processes\tSuccess", "FAILED  \tOPENIO-oioproxy-0\tNo such file or directory"]}
...ignoring

Второй блок ошибок:

TASK [meta : check meta] ***********************************************************************************************************************
Friday 09 August 2019  14:23:41 +0600 (0:00:00.125)       0:12:48.401 ********* 
FAILED - RETRYING: check meta (3 retries left).
FAILED - RETRYING: check meta (3 retries left).
FAILED - RETRYING: check meta (3 retries left).
FAILED - RETRYING: check meta (2 retries left).
FAILED - RETRYING: check meta (2 retries left).
FAILED - RETRYING: check meta (2 retries left).
FAILED - RETRYING: check meta (1 retries left).
FAILED - RETRYING: check meta (1 retries left).
FAILED - RETRYING: check meta (1 retries left).
fatal: [node1]: FAILED! => {"attempts": 3, "changed": false, "cmd": ["oio-tool", "ping", "10.0.2.15:6001"], "delta": "0:00:00.020230", "end": "2019-08-09 08:23:57.116297", "failed_when_result": true, "msg": "non-zero return code", "rc": 1, "start": "2019-08-09 08:23:57.096067", "stderr": "", "stderr_lines": [], "stdout": "PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused", "stdout_lines": ["PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused"]}
fatal: [node3]: FAILED! => {"attempts": 3, "changed": false, "cmd": ["oio-tool", "ping", "10.0.2.15:6001"], "delta": "0:00:00.024360", "end": "2019-08-09 08:23:57.129893", "failed_when_result": true, "msg": "non-zero return code", "rc": 1, "start": "2019-08-09 08:23:57.105533", "stderr": "", "stderr_lines": [], "stdout": "PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused", "stdout_lines": ["PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused"]}
fatal: [node2]: FAILED! => {"attempts": 3, "changed": false, "cmd": ["oio-tool", "ping", "10.0.2.15:6001"], "delta": "0:00:00.025870", "end": "2019-08-09 08:23:57.169814", "failed_when_result": true, "msg": "non-zero return code", "rc": 1, "start": "2019-08-09 08:23:57.143944", "stderr": "", "stderr_lines": [], "stdout": "PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused", "stdout_lines": ["PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused"]}

Расширенный вывод второго блока

[mux  19021] 15:57:24.300267 D mitogen.ctx.ssh.192.168.33.32.sudo.root: mitogen: _dispatch_calls: Message(1008, 6255, 0, 101, 1018, '\x80\x02(U2user-Aspire-5750G-20904-7f6dc584f740-58fac337'..1998) -> {u'stdout': u'\n{"exception": "WARNING: The below traceback may *not* be related to the actual failure.\\n  File \\"<stdin>\\", line 92, in <module>\\n", "changed": true, "end": "2019-08-09 09:57:24.285572", "stdout": "PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused", "cmd": ["oio-tool", "ping", "10.0.2.15:6001"], "failed": true, "delta": "0:00:00.040260", "stderr": "", "rc": 1, "invocation": {"module_args": {"creates": null, "executable": null, "_uses_shell": false, "strip_empty_ends": true, "_raw_params": "oio-tool ping 10.0.2.15:6001", "removes": null, "argv": null, "warn": true, "chdir": null, "stdin_add_newline": true, "stdin": null}}, "start": "2019-08-09 09:57:24.245312", "msg": "non-zero return code"}\n', u'stderr': u'', u'rc': 1}
[task 20904] 15:57:24.300757 D ansible_mitogen.connection: Call took 64 ms: ansible_mitogen.target.run_module(kwargs={u'module_map': {u'builtin': [u'ansible.module_utils._text', u'ansible.module_utils.basic', u'ansible.module_utils.common', u'ansible.module_utils.common._collections_compat', u'ansible.module_utils.common._json_compat', u'ansible.module_utils.common._utils', u'ansible.module_utils.common.collections', u'ansible.module_utils.common.file', u'ansible.module_utils.common.parameters', u'ansible.module_utils.common.process', u'ansible.module_utils.common.sys_info', u'ansible.module_utils.common.text', u'ansible.module_utils.common.text.converters', u'ansible.module_utils.common.text.formatters', u'ansible.module_utils.common.validation', u'ansible.module_utils.distro', u'ansible.module_utils.distro._distro', u'ansible.module_utils.parsing', u'ansible.module_utils.parsing.convert_bool', u'ansible.module_utils.pycompat24', u'ansible.module_utils.six'], u'custom': []}, u'emulate_tty': True, u'good_temp_dir': u'/tmp', u'module': u'command', u'cwd': None, u'service_context': Context(0, None), u'extra_env': None, u'is_python': None, u'env': {}, u'path': u'/usr/lib/python2.7/dist-packages/ansible/modules/commands/command.py', u'runner_name': u'NewStyleRunner', u'interpreter_fragment': None, u'json_args': '{"_ansible_version": "2.8.2", "warn": true, "_ansible_selinux_special_fs": ["fuse", "nfs", "vboxsf", "ramfs", "9p"], "_ansible_no_log": false, "_ansible_module_name": "command", "_raw_params": "oio-tool ping 10.0.2.15:6001", "_ansible_verbosity": 3, "_ansible_keep_remote_files": false, "_ansible_syslog_facility": "LOG_USER", "_ansible_socket": null, "_ansible_string_conversion_action": "warn", "_ansible_diff": false, "_ansible_remote_tmp": "/tmp", "_ansible_shell_executable": "/bin/sh", "_ansible_check_mode": false, "_ansible_tmpdir": null, "_ansible_debug": false}'})
[task 20904] 15:57:24.301149 D ansible_mitogen.mixins: _remove_tmp_path(None)
[task 20904] 15:57:24.311165 D mitogen: CallChain(Context(1008, u'ssh.192.168.33.32.sudo.root')).call_no_reply(): mitogen.core.Dispatcher.forget_chain('user-Aspire-5750G-20904-7f6dc584f740-58fac33785fb8')
[mux  19021] 15:57:24.312031 D ansible_mitogen.services: ContextService().put(Context(1008, u'ssh.192.168.33.32.sudo.root'))
[task 20904] 15:57:24.312883 D mitogen: mitogen.core.Stream('unix_listener.19021').on_disconnect()
[mux  19021] 15:57:24.313336 D mitogen: mitogen.core.Stream('unix_client.20904').on_disconnect()
[task 20904] 15:57:24.313328 D mitogen: Waker(Broker(0x7f6dbf375290) rfd=11, wfd=12).on_disconnect()
[task 20904] 15:57:24.313747 D mitogen: Router(Broker(0x7f6dbf375290)): stats: 0 module requests in 0 ms, 0 sent (0 ms minify time), 0 negative responses. Sent 0.0 kb total, 0.0 kb avg.
[mux  19021] 15:57:24.314565 D mitogen.ctx.ssh.192.168.33.32.sudo.root: mitogen: _dispatch_one((None, u'mitogen.core', u'Dispatcher', u'forget_chain', ('user-Aspire-5750G-20904-7f6dc584f740-58fac33785fb8',), Kwargs({})))
[mux  19021] 15:57:24.314792 D mitogen.ctx.ssh.192.168.33.32.sudo.root: mitogen: _dispatch_calls: Message(1008, 6255, 0, 101, 0, '\x80\x02(NX\x0c\x00\x00\x00mitogen.coreX\n\x00\x00\x00Dispatcherq\x01X\x0c\x00\x00\x00forget_'..144) -> None
The full traceback is:
WARNING: The below traceback may *not* be related to the actual failure.
  File "<stdin>", line 92, in <module>

fatal: [node2]: FAILED! => {
    "attempts": 3, 
    "changed": false, 
    "cmd": [
        "oio-tool", 
        "ping", 
        "10.0.2.15:6001"
    ], 
    "delta": "0:00:00.040260", 
    "end": "2019-08-09 09:57:24.285572", 
    "failed_when_result": true, 
    "invocation": {
        "module_args": {
            "_raw_params": "oio-tool ping 10.0.2.15:6001", 
            "_uses_shell": false, 
            "argv": null, 
            "chdir": null, 
            "creates": null, 
            "executable": null, 
            "removes": null, 
            "stdin": null, 
            "stdin_add_newline": true, 
            "strip_empty_ends": true, 
            "warn": true
        }
    }, 
    "msg": "non-zero return code", 
    "rc": 1, 
    "start": "2019-08-09 09:57:24.245312", 
    "stderr": "", 
    "stderr_lines": [], 
    "stdout": "PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused", 
    "stdout_lines": [
        "PING KO (2) 10.0.2.15:6001: [errno=111] Connection refused"
    ]
}

В чем может быть ошибка?

 

chemtech
()

Блокировка ресурса (lock resource) в gitlab ci

Форум — Admin

Подскажите, как реализовать блокировка ресурса (lock resource) в gitlab ci? Пример: Job выполняется на ветке master и обращается к базе данных. Job выполняется на tag и обращается к базе данных.

Как сделать блокировку базы данных? Или как сделать чтобы это Job выполнялись последовательно? Схема: https://imgur.com/a/5f5fOG7

 ,

chemtech
()

bash скрипт при запуске через systemd некорректно работает.

Форум — Admin

Имеется https://github.com/patsevanton/inotify-createrepo

Если запускать так

/usr/local/bin/inotify-createrepo -c /etc/inotify-createrepo.conf


то скрипт запустит createrepo первый раз.

Если копировать rpm в директорию /var/www/repos/rpm-repo, то реагирует и запускает createrepo.

Если запускать
systemctl start inotify-createrepo

то скрипт запустит createrepo первый раз.

Если копировать rpm в директорию /var/www/repos/rpm-repo, то НЕ реагирует.

В чем может быть ошибка?

 ,

chemtech
()

Не собирается wal-g в rpm на copr.fedorainfracloud.org

Форум — Admin

Пытаюсь собрать wal-g в rpm на copr.fedorainfracloud.org

Вот репо https://github.com/patsevanton/wal-g-rpm

Вот проект https://copr.fedorainfracloud.org/coprs/antonpatsev/wal-g/

Вот лог https://copr-be.cloud.fedoraproject.org/results/antonpatsev/wal-g/epel-7-x86_...

Пытаюсь поменять разные параметры: %setup, BuildRoot.

Из-за чего может быть ошибка?

В Source0: https://github.com/wal-g/wal-g/releases/download/v%{version}/wal-g.linux-amd64.tar.gz нажодится скомпилированный wal-g

 ,

chemtech
()

Есть ли инструкция по установке и настройке osquery в Elasticsearch / Kibana?

Форум — Admin

Может кто подключал osquery к Elasticsearch / Kibana? Можете поделиться опытом?

Я установил Filebeat, Elasticsearch, Kibana 6.6.2

filebeat modules enable osquery
sudo rpm -ivh https://osquery-packages.s3.amazonaws.com/centos7/noarch/osquery-s3-centos7-repo-1-0.0.noarch.rpm
sudo yum install osquery

Статус osquery

systemctl status osquery
Ok

systemctl restart filebeat

Config Osquery

cat /etc/osquery/osquery.conf | grep -v "//" | grep -v "^$"
{
  "options": {
    "config_plugin": "filesystem",
    "logger_plugin": "filesystem",
    "utc": "true"
  },
  "schedule": {
    "system_info": {
      "query": "SELECT hostname, cpu_brand, physical_memory FROM system_info;",
      "interval": 3600
    }
  },
  "decorators": {
    "load": [
      "SELECT uuid AS host_uuid FROM system_info;",
      "SELECT user AS username FROM logged_in_users ORDER BY time DESC LIMIT 1;"
    ]
  },
  "packs": {
  },
  "feature_vectors": {
    "character_frequencies": [
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.00045,  0.01798,
      0.0,      0.03111,  0.00063,  0.00027,   0.0,      0.01336,  0.0133,
      0.00128,  0.0027,   0.00655,  0.01932,   0.01917,  0.00432,  0.0045,
      0.00316,  0.00245,  0.00133,  0.001029,  0.00114,  0.000869, 0.00067,
      0.000759, 0.00061,  0.00483,  0.0023,    0.00185,  0.01342,  0.00196,
      0.00035,  0.00092,  0.027875, 0.007465,  0.016265, 0.013995, 0.0490895,
      0.00848,  0.00771,  0.00737,  0.025615,  0.001725, 0.002265, 0.017875,
      0.016005, 0.02533,  0.025295, 0.014375,  0.00109,  0.02732,  0.02658,
      0.037355, 0.011575, 0.00451,  0.005865,  0.003255, 0.005965, 0.00077,
      0.00621,  0.00222,  0.0062,   0.0,       0.00538,  0.00122,  0.027875,
      0.007465, 0.016265, 0.013995, 0.0490895, 0.00848,  0.00771,  0.00737,
      0.025615, 0.001725, 0.002265, 0.017875,  0.016005, 0.02533,  0.025295,
      0.014375, 0.00109,  0.02732,  0.02658,   0.037355, 0.011575, 0.00451,
      0.005865, 0.003255, 0.005965, 0.00077,   0.00771,  0.002379, 0.00766,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0,      0.0,       0.0,      0.0,      0.0,
      0.0,      0.0,      0.0
    ]
  }    
}

Дашборд где видно ошибки https://discourse-cdn-sjc1.com/elastic/uploads/default/original/3X/f/e/febfbcb994e9f169ab2d26d790013888d5871ffc.png

 ,

chemtech
()

бинарник (jaeger) из архива неправильно копируется при сборке rpm

Форум — Development

Всем привет

Пытаюсь собрать запаковать jaeger-all-in-one в rpm

https://github.com/patsevanton/jaeger-all-in-one-rpm

rpm создается - но копируемый бинарник получается другого размера.

Где я накосячил?

 ,

chemtech
()

RSS подписка на новые темы