Мы хотим развернуть кластер k8s, который будет одновременно запускать ~ 100 модулей с интенсивным вводом-выводом. Все они должны иметь доступ к одному и тому же тому.
Что мы пробовали до сих пор:
- CephFS
- was very complicated to set up. Hard to troubleshoot. In the end, it crashed a lot and the cause was not entirely clear.
- Helm NFS Server Provisioner
- runs pretty well, but when IO peaks a single replica is not enough. We could not get multiple replicas to work at all.
- MinIO
- is a great tool to create storage buckets in k8s. But our operations require fs mounting. That is theoretically possible with s3fs, but since we run ~100 pods, we would need to run 100 s3fs sidecars additionally. Thats seems like a bad idea.
Должен быть способ получить 2 ТБ данных, смонтированных в кластере GKE с относительно высокой доступностью?
Firestorage, похоже, работает, но он намного дороже, чем другие решения, и при большом количестве операций ввода-вывода быстро становится невозможным.
Я подумывал создать этот вопрос о сбое сервера, но сообщество k8s намного меньше, чем сообщество SO.