Friday, 2015-07-24

*** Miouge has joined #openstack-fr06:08
*** arnaud_orange1 has quit IRC07:04
*** FdotFr has joined #openstack-fr07:23
*** jlanoux has joined #openstack-fr07:41
*** telnes has joined #openstack-fr08:02
*** zulf has joined #openstack-fr08:10
*** arnaud_orange has joined #openstack-fr08:11
*** pilgrimstack has joined #openstack-fr08:12
*** egallen has joined #openstack-fr08:29
*** Homere has joined #openstack-fr08:29
*** JeanBriceCombebi has joined #openstack-fr08:44
*** thomnico has joined #openstack-fr08:47
*** JeanBriceCombebi has quit IRC08:48
*** nijaba has quit IRC09:01
*** JeanBriceCombebi has joined #openstack-fr09:04
*** davlefouAMD has joined #openstack-fr09:23
*** thomnico has quit IRC09:28
*** JeanBriceCombebi has quit IRC09:38
*** JeanBriceCombebi has joined #openstack-fr09:38
*** JeanBriceCombebi has quit IRC09:44
*** thomnico has joined #openstack-fr09:53
*** jlanoux_ has joined #openstack-fr09:58
*** Miouge has quit IRC10:00
*** jlanoux has quit IRC10:01
Adri2000bauzas: plop, chaud pour une question ? :p10:13
bauzasAdri2000: ben la canicule est partie10:14
bauzasAdri2000: donc oui, tant que nos vieux restent bien à l'abri10:14
Adri2000j'ai une flavor avec disk size = 0, donc il doit me faire des instances avec un root disk qui correspond à la taille de l'image glance10:14
Adri2000ça se passe bien10:14
Adri2000par contre dans le décompte de l'espace disque utilisé sur le compute node, il a l'air de compter 0...10:15
bauzasje sens venir la question... :)10:15
Adri2000(local_gb_used dans la sortie de nova hypervisor-show)10:15
Adri2000le tout en juno10:15
Adri2000alors alors ? :p10:15
bauzasalors c'est la merde :p10:15
bauzasles BDM c'est horrible en termes de ressources10:15
bauzasaprès, c'est pas impossible que le bug soit fixé sur plus récent10:16
bauzasje regarde10:16
bauzas(ca me dit qqchose)à10:16
Adri2000define:bdm ? ^^10:16
bauzasblock-device mapping :)10:17
Adri2000ah mais là on fait pas de BDM afaik, on boot en normal, pas de volume10:17
* bauzas facepalm10:18
bauzasj'ai lu trop rapidement10:18
bauzaschaleur toussa10:18
Adri2000et j'ai une question subsidiaire aussi, le local_gb_used semble être à 10 de base. aucune instance sur le compute node, local_gb_used est à 1010:18
bauzasdonc, oui, je vois ton problème10:18
bauzas(je la refais)10:18
bauzasaction, 2e10:18
bauzasje vais aller voir la gestion des ressources10:19
bauzasmais effectivement, si ta flavor ne mappe pas la taille de ton image, y peut y avoir des differences10:19
* bauzas essaie de se souvenir de ça10:19
Adri2000bauzas: googlé un peu mais pas trouvé de bug, pourtant j'ai pas l'impression d'être dans une use case de fou :x10:23
Adri2000les flavor avec disk size à 0 c'est documenté en plus10:23
* Adri2000 afk le temps de manger10:24
bauzasAdri2000: en gros, le ResourceTracker se fout de ta flavor, lui il compte les instances10:25
bauzasAdri2000: sauf dans le cas de migrations10:25
bauzasAdri2000: où là, forcément, il va décompter via la flavor10:26
bauzasAdri2000: trouvé https://github.com/openstack/nova/blob/master/nova/compute/resource_tracker.py#L60510:31
bauzas(c'est pareil en Juno)10:32
bauzas'usage', c'est ton instance10:32
bauzasAdri2000: si tu fais un select disk_gb from instances where uuid=<uuid> , tu auras sa valeur10:33
bauzasAdri2000: à mon avis, la valeur est directement prise de la flavor, il y a pas d'introspection Glance là dedans10:33
*** jlanoux has joined #openstack-fr10:35
bauzasAdri2000: ouais c'est ça, c'est confirmé, Nova calcule toujours le nouvel usage en se basant sur les valeurs de l'instance dans la DB10:35
bauzasAdri2000: pour ta question subsidiaire, c'est bizarre car la valeur par défaut est 0 https://github.com/openstack/nova/blob/stable/juno/nova/compute/resource_tracker.py#L46-L4710:36
bauzasAdri2000: par contre, Nova compte *toutes* les instances, même les stoppées hein10:37
*** jlanoux_ has quit IRC10:38
bauzaset oops, c'est un  select root_gb from instances where uuid=<uuid> qu'il faut faire :)10:39
bauzaset pour terminer, oui je viens de confirmer pour le calcul du root_gb10:40
bauzasAdri2000: https://github.com/openstack/nova/blob/stable/juno/nova/compute/api.py#L82010:41
bauzasvala vala vala10:41
bauzasAdri2000: y a juste un hack pour libvirt ici https://github.com/openstack/nova/blob/stable/juno/nova/compute/api.py#L635-L637 qui veut juste dire "on s'en branle, zyva"10:42
bauzasdonc en résumé, 1/ ca marche10:44
bauzas2/ compte pas trop là dessus10:44
bauzas3/ c'est normal que la vue est pas bonne10:44
* bauzas retourne dans sa grotte10:45
bauzas(n'hésitez pas à me balancer de questions comme ça, ça me permet de mieux comprendre des trucs qui me manquent sur Nova)10:45
*** jlanoux has quit IRC11:07
*** FdotFr has quit IRC11:32
Adri2000bauzas: ok pour reserved_host_disk vu, on n'a pas la valeur par défaut11:38
Adri2000bauzas: pour la façon dont nova compatible le disque sur les flavor dont le root disk est à 0, je comprends que tu me dis : vu le code c'est normal11:39
Adri2000bauzas: mais dans l'absolu, on est d'accord que c'est pas normal ? i.e. c'est un bug11:39
Adri2000car là je peux booter plein d'instances avec flavor root disk = 0, nova les bootera jusqu'à ce que le disque soit complètement rempli11:40
Adri2000et nova aura jamais conscience que le disque du compute node est rempli11:40
bauzasAdri2000: le problème c'est la relation Nova/Glance11:40
bauzasAdri2000: c'est un peu un vieux couple qui a du mal à discuter11:41
*** FdotFr has joined #openstack-fr11:41
Adri2000bauzas: ça vaut bien un bug report tout de même ? :)11:42
bauzasAdri2000: pourquoi pas11:43
bauzasAdri2000: en tant qu'user, t'as le droit de t'en foutre des problèmes techniques et de communication :p11:44
Adri2000bahhh :]11:46
*** jlanoux has joined #openstack-fr11:51
*** matbu has joined #openstack-fr12:14
Adri2000le même bug avec nova boot --ephemeral <la taille que tu veux> : https://bugs.launchpad.net/nova/+bug/131598812:20
openstackLaunchpad bug 1315988 in OpenStack Compute (nova) "report disk consumption incorrect in nova-compute" [Low,Confirmed]12:20
Adri2000importance : low ?12:20
Adri2000j'ai loupé quelque chose ou ? ce bug entraine le risque que le disque d'un compute node soit full sans que nova soit au courant12:21
*** fitzdsl has left #openstack-fr12:25
*** matbu has quit IRC12:28
*** pfreund has quit IRC12:37
*** pfreund has joined #openstack-fr12:37
*** FdotFr has quit IRC12:59
*** JeanBriceCombebi has joined #openstack-fr13:03
*** M0z__ has joined #openstack-fr13:05
*** yassine__ has joined #openstack-fr13:06
*** matbu has joined #openstack-fr13:10
*** user2 has quit IRC13:37
*** bauzas is now known as bauwser13:55
Adri2000en fait comme la taille passée --ephemeral doit être < à celle précisée dans la flavor (qui est la taille prise en compte dans les calculs), c'est moins pire que ce que je croyais14:02
*** matbu has left #openstack-fr14:10
bauwserAdri2000: oui, cf. https://github.com/openstack/nova/blob/stable/juno/nova/compute/api.py#L635-L637 ce que je t'ai dit14:15
bauwserpardon https://github.com/openstack/nova/blob/stable/juno/nova/compute/api.py#L1248-L1249 plutôt14:16
*** JeanBriceCombebi has quit IRC14:34
Adri2000bauwser: ouaip, y a du bdm dans l'affaire14:40
Adri2000je croyais que bdm impliquait cinder/volumes, mais apparemment pas14:40
bauwsernon non, un ephemeral c'est un block device temporaire géré par nova14:40
bauwserca date de l'époque où nova avait un machin appelé nova-volumes :p14:40
Adri2000bauwser: tiens par rapport à mon souci initial y a un bug report en fait : https://bugs.launchpad.net/nova/+bug/141494714:41
openstackLaunchpad bug 1414947 in OpenStack Compute (nova) "instance‘s root_gb is 0, but the actual root_gb size is not 0." [Wishlist,Won't fix]14:41
Adri2000wishlist won't fix ... :(14:41
bauwser"wishlist"14:41
bauwserj'adore :D14:41
bauwserla réponse de sean est juste exceptionnelle : This is the currently defined behavior of nova. 0 means be adaptive.14:42
Adri2000comme tu dis :x14:42
bauwserouais 'fin voilà quoi14:43
bauwseril a juste raté le truc14:43
bauwserAdri2000: franchement, tu peux rouvrir le bug hein14:57
bauwserAdri2000: en expliquant le problème pour l'utilisateur14:57
bauwserAdri2000: le souci, c'est surtout que Nova perd tout controle14:57
Adri2000j'ai mis un ptit commentaire14:58
bauwserAdri2000: je vais voir pour en discuter14:58
bauwserAdri2000: bon, DoS t'es allé un peu fort, mais je vais relayer :p14:58
bauwserc'est surtout que le ResourceTracker peut se planter14:59
Adri2000bauwser: tu boot des instances comme ça jusqu'à remplir le disque d'un compute node ? nova continuera de scheduler dessus croyant qu'il reste plein de disque15:00
Adri2000et un compute node disque plein, à mon avis les instances dessus sont pas forcément contentes...15:00
Adri2000et les nouvelles instances schedulées dessus risquent de pas bien spawner non plus15:00
Adri2000service api nova (nova boot) = kaput15:01
Adri2000les ressources compute (instances) sur le node impacté = kaput15:01
bauwserAdri2000: c'est pas tout à fait vrai15:01
bauwserAdri2000: le scheduler compte aussi le nombre d'instances15:01
bauwserAdri2000: c'est juste qu'il se plante sur l'espace disque si tu utilises le DiskFilter15:02
Adri2000j'imagine le pire cas15:02
bauwserAdri2000: dans le pire des cas, t'as des quotas15:02
Adri2000sauf qu'il pour les disques15:02
Adri2000(j'ai appris ça aujourd'hui)15:03
Adri2000s/qu'il//15:03
bauwserAdri2000: dans le pire des cas aussi, t'as X instances qui vont te prendre de la RAM etc.15:03
bauwserAdri2000: qui vont de prendre du VCPU15:03
bauwserAdri2000: etc.15:03
bauwserAdri2000: donc oui, c'est buggé, mais c'est quand meme limité15:04
Adri2000nova est pas censé envoyer de nouvelles instances sur un compute node qui n'a plus de cpu/ram/disque libre15:04
bauwserAdri2000: le cas au pire, c'est une flavor de type 1VCPU/0GB avec une image d'1To15:04
Adri2000par exemple :)15:05
Adri2000au parle bien du pire cas15:05
Adri2000mais c'est comme ça qu'il faut penser non ?15:05
Adri2000dans ce contexte :)15:05
bauwsermmm15:06
bauwserle vrai souci, c'est pas vraiment le scheduler, c'est plutôt le claim de l'instance sur le compute15:07
bauwsercad. que le compute va claimer une instance avec un disque de 0 alors qu'elle va générer 1To de disque15:07
bauwsermaintenant, la vraie vraie question, c'est : est-ce que c'est pas un problème de l'opérateur?15:08
bauwsercad. tu laisses le choix d'avoir des flavors de disque automatique, ca veut dire que t'acceptes d'avoir des images de taille raisonnable15:08
Adri2000bien sûr que je laisse le choix de la taille du disque au user : à travers les différentes flavors spécifiant une taille, et à travers les tailles des images dans glance via la flavor disk size = 015:11
Adri2000ça veut pas dire que nova doit booter des instances sur des compute nodes qui n'ont pas de place15:11
Adri2000et si j'ai plus de place sur aucun de mes compute nodes, je veux que l'api nova me dise "no valid host found"15:12
Adri2000plutôt que "tout va bien" et en fait il reste 0 octet sur le compute node du coup plus aucune des instances dessus n'est en état de marche15:13
Adri2000après j'ai aucune idée comment résoudre ce bug, ni même où ça pourrait se situer dans les interactions nova/glance/whatever15:13
Adri2000mais en tant que user ...15:13
Adri2000j'ai pas l'impression d'être dans un cas ultra particulier, à part l'usage des flavor avec disk size = 0, qui encore une fois est documenté et censé être autant supporté que le reste15:14
*** arnaud_orange has quit IRC15:21
*** Homere has quit IRC15:21
bauwserAdri2000: on est d'accord que c'est un problème, c'est juste que certains pourraient dire "bah c'est un problème opérateur"15:24
*** l_a_m has quit IRC15:29
*** JeanBriceCombebi has joined #openstack-fr15:35
Adri2000bauwser: j'aiguise mes arguments :P15:40
bauwserAdri2000: tu peux me voir comme un sparring-partner15:41
bauwserAdri2000: disons que je connais le bestiaire qui compose les individus principaux, et je pense que le Wontfix a été dû à ça15:42
*** jlanoux has quit IRC15:53
*** JeanBriceCombebi has quit IRC15:57
*** telnes has left #openstack-fr15:57
*** zulf has quit IRC16:02
*** thomnico has quit IRC16:03
*** pilgrimstack has quit IRC16:21
*** manous has joined #openstack-fr16:51
*** JeanBriceCombebi has joined #openstack-fr17:19
*** JeanBriceCombebi has quit IRC17:47
*** davlefouAMD has quit IRC18:00
*** manous has quit IRC18:25
*** EmilienM is now known as EmilienM|brb19:18
*** EmilienM|brb is now known as EmilienM19:59
*** yassine__ has quit IRC21:33
*** pfreund_ has joined #openstack-fr23:51
*** pfreund has quit IRC23:54
*** pfreund_ is now known as pfreund23:54

Generated by irclog2html.py 2.14.0 by Marius Gedminas - find it at mg.pov.lt!