The thing is that it works very well and doesn't need fixes…
I know, not usual right? It was so stable that we left it like that waiting for people coming for bugs and nothing happened… We'll cut a 1.0 in the next weeks/months.
Posts
-
RE: Rust-based guest-tools... How are things going?
-
RE: Deteching Host is Failing with Error
A host cannot be outside a pool. Even on a fresh install, a host is always in a pool. If the host is already alone in a pool, there's nothing specific to decomission it, just shutdown it and you are done.
-
RE: 🛰️ XO 6: dedicated thread for all your feedback!
@Hex Have you looked at https://feedback.vates.tech ?
If there's nothing on what you need there, feel free to add an entry!
-
RE: Every virtual machine I restart doesn't boot.
Starting with the documentation is a good thing: https://docs.xcp-ng.org/troubleshooting/
This will give you (and us) hints on what's going on

-
RE: Every virtual machine I restart doesn't boot.
XCP-ng is rock stable. We have (and Citrix does too) many many automated test for such basic operations. So you clearly have an issue somewhere triggering that problem.
-
RE: API authentication token permissions
- Yes it's planned
- You already can use our openAPI for Prometheus to scrap and have permissions managed in Grafana

-
RE: backup mail report says INTERRUPTED but it's not ?
All of you are using a Node 24 LTS version? Do you still have the issue with Node 20 or Node 22?
-
RE: VM Disk Not Migrating due to Backup Running
I think we got a new record here

XO 5.73 was indeed released in July 2022: https://xen-orchestra.com/blog/xen-orchestra-5-73/
-
RE: XOA - Memory Usage
Hi,
Depends on the number of pools, hosts, VMs, number of backup jobs, size etc.
-
RE: 🛰️ XO 6: dedicated thread for all your feedback!
Nice catch! Thanks for reporting

-
RE: Avis et retour sur utilisation de stockage NetAPP
Difficile de parler de « réalité » avec les benchmarks. Vérifiez aussi l'iodepth (qui dépend du type matériel que vous avez, sur du flash/NVMe vous pouvez monter à 128 ou 256), la latence entre en compte aussi bien sûr.
Le bottleneck principal est le monothreading de tapdisk, si vous testez sur plusieurs VMs différentes la somme va monter de manière assez régulière.
-
RE: very slow disk ssd support all vms xcp-ng8.2.1
Check the disk scheduler on the Dom0 for this drive.
-
RE: Avis et retour sur utilisation de stockage NetAPP
@jsajous26 said in Avis et retour sur utilisation de stockage NetAPP:
Bonjour,
- 1798MB/s en lecture, fait environ 15Gbits/s
- 1196MB/s en écriture fait environ 10Gbits/s
C'est tout à fait dans la norme pour un benchmark sur un seul disque. À noter que cela passe à l'échelle avec le nombre de VHD, ce qui fait que dans un contexte de production réaliste (des dizaines de VHD qui écrivent/lisent en même temps), on arrive à saturer un lien 25G.
Nous travaillons en parallèle sur 2 axes :
- amélioration (multiqueue) de tapdisk pour la performance sur un seul disque
- utilisation de l'équivalent de Vvols en parlant directement à la baie pour éviter des conversion de format et bénéficier des performances natives (ou proche) de la baie de stockage.
