document ganeti upgrade to stretch
[gnt-info] / doc / 2018-07-14-upgrade-to-stretch.txt
1 2018-07-14 upgrade to stretch
2
3 Errors after upgrade:
4
5 root@r1u28:~# gnt-cluster verify
6 Sat Jul 14 20:20:15 2018   - ERROR: instance syslog: couldn't retrieve status for disk/0 on r1u32.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
7 Sat Jul 14 20:20:15 2018   - ERROR: instance mudrac: couldn't retrieve status for disk/0 on r1u32.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
8 Sat Jul 14 20:20:15 2018   - ERROR: instance mudrac: couldn't retrieve status for disk/1 on r1u32.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
9 Sat Jul 14 20:20:15 2018   - ERROR: instance mudrac: couldn't retrieve status for disk/2 on r1u32.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
10 Sat Jul 14 20:20:15 2018   - ERROR: instance mudrac: couldn't retrieve status for disk/3 on r1u32.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
11 Sat Jul 14 20:20:15 2018   - ERROR: instance odin.ffzg.hr: couldn't retrieve status for disk/0 on r1u28.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
12 Sat Jul 14 20:20:15 2018   - ERROR: instance odin.ffzg.hr: couldn't retrieve status for disk/1 on r1u28.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
13 Sat Jul 14 20:20:15 2018   - ERROR: instance gray: couldn't retrieve status for disk/0 on r1u28.gnt.ffzg.hr: rbd showmapped failed (exited with exit code 1): rbd: unrecognised option '-p'\n
14 Sat Jul 14 20:20:15 2018   - ERROR: instance video: instance not running on its primary node r1u28.gnt.ffzg.hr
15
16
17 known issue with option -p: https://github.com/ganeti/ganeti/issues/1233
18
19 better version of fix on: https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=850823
20
21
22 root@r1u28:~# vi /usr/share/ganeti/2.15/ganeti/storage/bdev.py
23
24 root@r1u28:~# gnt-cluster copyfile /usr/share/ganeti/2.15/ganeti/storage/bdev.py
25
26 root@r1u28:~# /etc/init.d/ganeti restart
27 Restarting ganeti (via systemctl): ganeti.service.
28 root@r1u28:~# ssh r1u30 /etc/init.d/ganeti restart
29 Restarting ganeti (via systemctl): ganeti.service.
30 root@r1u28:~# ssh r1u32 /etc/init.d/ganeti restart
31 Restarting ganeti (via systemctl): ganeti.service.
32
33 root@r1u28:~# gnt-cluster verify
34 Submitted jobs 268767, 268768
35 Waiting for job 268767 ...
36 Sat Jul 14 20:35:09 2018 * Verifying cluster config
37 Sat Jul 14 20:35:09 2018 * Verifying cluster certificate files
38 Sat Jul 14 20:35:09 2018 * Verifying hypervisor parameters
39 Sat Jul 14 20:35:09 2018 * Verifying all nodes belong to an existing group
40 Waiting for job 268768 ...
41 Sat Jul 14 20:35:10 2018 * Verifying group 'default'
42 Sat Jul 14 20:35:10 2018 * Gathering data (3 nodes)
43 Sat Jul 14 20:35:11 2018 * Gathering information about nodes (3 nodes)
44 Sat Jul 14 20:35:13 2018 * Gathering disk information (3 nodes)
45 Sat Jul 14 20:35:16 2018 * Verifying configuration file consistency
46 Sat Jul 14 20:35:16 2018 * Verifying node status
47 Sat Jul 14 20:35:16 2018   - ERROR: cluster: ghost disk '6a41d54a-ab7c-4b99-a99e-529f925135e4' in temporary DRBD map
48 Sat Jul 14 20:35:16 2018   - ERROR: cluster: ghost disk '6a41d54a-ab7c-4b99-a99e-529f925135e4' in temporary DRBD map
49 Sat Jul 14 20:35:16 2018 * Verifying instance status
50 Sat Jul 14 20:35:16 2018   - ERROR: instance video: instance not running on its primary node r1u28.gnt.ffzg.hr
51 Sat Jul 14 20:35:16 2018 * Verifying orphan volumes
52 Sat Jul 14 20:35:16 2018 * Verifying N+1 Memory redundancy
53 Sat Jul 14 20:35:16 2018 * Other Notes
54 Sat Jul 14 20:35:16 2018 * Hooks Results
55
56
57
58 # qemu rbd fix
59
60 root@r1u28:~# gnt-ill video
61 Instance Status     VCPUs Memory DiskUsage Disk_template Disks Primary_node      Secondary_Nodes
62 video    ERROR_down     -      -    110.0G rbd               2 r1u28.gnt.ffzg.hr
63 root@r1u28:~# gnt-instance start video
64 Waiting for job 268771 for video ...
65 Job 268771 for video has failed: Failure: command execution error:
66 Could not start instance 'video': Hypervisor error: Failed to start instance video: exited with exit code 1 (qemu-system-x86_64: -drive file=rbd:rbd/7cda803e-f877-4001-b9ce-9d460e3f85b8.rbd.disk0,format=raw,if=none,cache=none,id=hotdisk-39dd05de-pci-4,bus=0,unit=4: Unknown protocol 'rbd'
67
68
69 https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=839899
70
71 root@r1u28:~# apt-get install qemu-block-extra
72 root@r1u28:~# gnt-instance start video
73 Waiting for job 268773 for video ...
74 root@r1u28:~# gnt-ill video
75 Instance Status  VCPUs Memory DiskUsage Disk_template Disks Primary_node      Secondary_Nodes
76 video    running     4   2.0G    110.0G rbd               2 r1u28.gnt.ffzg.hr 
77
78
79 Fix whole cluster and test
80
81 root@r1u28:~# gnt-cluster command apt-get install -y qemu-block-extra
82
83 # test
84 root@r1u28:~# gnt-instance reboot video
85 root@r1u28:~# gnt-instance reboot gray
86
87 root@r1u28:~# gnt-ill  | grep ' rbd '
88 gray                   running        6   6.0G    100.0G rbd               1 r1u28.gnt.ffzg.hr 
89 mudrac                 running        4   4.0G      2.9T rbd               4 r1u32.gnt.ffzg.hr 
90 odin.ffzg.hr           running        2   512M    253.0G rbd               2 r1u28.gnt.ffzg.hr 
91 syslog                 running        2   512M    100.0G rbd               1 r1u32.gnt.ffzg.hr 
92 video                  running        4   2.0G    110.0G rbd               2 r1u28.gnt.ffzg.hr 
93
94