Krótka lista Docker Hosting

zauważ, że ten post został zaktualizowany od października 20, 2016.

wszyscy wiemy, że Docker można łatwo uruchomić na naszych lokalnych maszynach. Ale płynne przejście naszych udoskonalonych stosów aplikacji z rozwoju do produkcji było częścią układanki, której brakowało przez ostatnie sześć do dwunastu miesięcy.

teraz dostępnych jest tak wiele wyspecjalizowanych i zoptymalizowanych usług hostingu Docker, najwyższy czas na recenzję, aby zobaczyć, co jest w ofercie.

jedną z złożoności porównywania opcji hostingu Docker jest to, że wiele z nich oferuje narzędzia do zarządzania i orkiestracji na podstawie rzeczywistych dostawców hostingu. Nie wszyscy jasno określają, z jakiego dostawcy korzystają, kiedy i gdzie, i może to być dla ciebie ważna kwestia, ale nie musi. Z tego powodu nie uwzględniłem usług takich jak Deis Workflow, Docker Cloud lub ContainerShip, ponieważ nie twierdzą, że są ani nie oferują zintegrowanych usług hostingowych.

chociaż będę uwzględniał usługi, które hostują gdzie indziej, koszty te są wliczone w cenę.

oczywiście można po prostu zainstalować Dockera na maszynie wirtualnej opartej na Linuksie na dowolnym dostawcy hostingu, a ja mógłbym produkować strony profili “standardowych” firm hostingowych. Zamiast tego starałem się skupić na usługach, które oferują coś innego oprócz prostego hostingu, aby twoje wrażenia z Dockera były płynniejsze i ulepszone.

Docker Machine

dla wielu dostawców hostingu najprostszym sposobem wdrożenia kontenerów i zarządzania nimi są sterowniki Docker Machine. O ile te hosty nie oferują niczego dodatkowego na sterowniku, nie wymienię ich osobno. Obecnie należą do nich:

  • Amazon Web Services

  • Microsoft Azure

  • Digital Ocean

  • Exoscale

  • silnik obliczeniowy Google

  • OpenStack

  • Rackspace

  • IBM Softlayer

wkrótce pojawi się więcej i być może będziesz mógł użyć ogólnego sterownika dla innych hostów.

Amazon Web Services (AWS)

AWS to największa usługa hostingu w chmurze na świecie i oferuje wsparcie dla Dockera na większości standardowych maszyn EC2.

AWS oferuje następnie usługę EC2 container service (ECS), która wyświetla zestaw wywołań API do zarządzania kontenerami zainstalowanymi w instancjach EC2. ECS nie jest naliczany oddzielnie, ale znajduje się na innych zasobach AWS, z których korzystają kontenery. Oznacza to, że kontenery mają dostęp do szerokiej gamy usług oferowanych przez AWS, w tym do przechowywania i skalowania.

aws.amazon.com/ecs

Digital Ocean

obsługa kontenerów Docker w Digital Ocean jest prosta, odzwierciedlając ogólny sposób działania firmy. Zaloguj się na swoje konto i utwórz nową kroplę w oparciu o aplikację Docker.

spowoduje to utworzenie maszyny Wirtualnej z uruchomionym Dokerem na Ubuntu, aby używać go jak zwykle.

digitalocean.com/community/tutorials/how-to-use-the-digitalocean-docker-application

Carina

Rackspace oferuje sterownik maszyny dokującej, ale ma również usługę hostingu kontenerów. Carina nadal jest w publicznej wersji beta i pozwala tworzyć klastry podobne do roju Dockera. Umożliwia również zarządzanie kontenerami od opracowania do produkcji przy użyciu głównie standardowych poleceń Dockera. Na przykład:

carina create chriscluster --wait --nodes=3 --autoscale

dostępna jest również konsola internetowa do zarządzania kontenerami i aplikacjami.

getcarina.com

Sloppy.io

Sloppy.io zapewnia narzędzia CLI, interfejs internetowy, trwałą pamięć masową między uruchomieniami kontenera i statystyki. Tworzysz stosy aplikacji za pomocą pliku JSON, a dzięki podstawowej integracji Mesos, Sloppy pozwala ustawić specyfikacje maszyny. Na przykład:

{ "project": "chrisexample", "services": , "env": { "LCB_DATABASE_URI": "mongodb://mongodb.backend.chrisexample/chrisexample" }, "dependencies": } ] }, { "id": "backend", "apps": } ] } ]}

sloppy.io.

Giant Swarm

to nowy startup, który lubi być prosty i skupić się na dostarczaniu solidnego produktu i wsparcia. Giant Swarm nie używa maszyn wirtualnych i będzie wdrażać Twoje kontenery i usługi tylko na prywatnych maszynach AWS i ich własnych usługach bare metal.

dokładna cena jest trochę niejasna, a usługa jest teraz dostępna tylko dla zaproszonych, ale są otwarci na swoją infrastrukturę, z kilkoma niestandardowymi komponentami dostępnymi na Githubie. Konfiguracja odbywa się za pomocą narzędzia wiersza poleceń, z aplikacjami zdefiniowanymi przez plik JSON przypominający plik Docker Compose. Na przykład:

{ "name": "chris-app", "components": { "front-end": { "image": "registry.giantswarm.io/chrischinchilla/front-end", "ports": 8000, "domains": { "8000": "chris-app.com" }, "links": }, "redis": { "image": "redis:2.6", "ports": 6379 } }}

obrazy mogą pochodzić z Centrum dokowania,a także niestandardowe obrazy z konta w rejestrze Giant Swarm.

Uruchom aplikację za pomocą prostego polecenia, które może przekazać różne parametry do pliku JSON.

swarm up --var=domain=chrisapp-chrischinchilla.gigantic.io

dostępny jest interfejs API umożliwiający bardziej precyzyjną kontrolę usług, a współpracowników można organizować w zespoły, aby umożliwić współpracę.

io

Google Compute Engine (GCE)

Kubernetes stanowi podstawę usługi hostingu i zarządzania kontenerami Google, ich własnego projektu open-source, który zasila wiele dużych infrastruktur opartych na kontenerach. Kontenery znajdują się na szczycie własnej usługi hostingowej Google, jednej z najbardziej niezawodnych dostępnych usług hostingowych w chmurze. GCE zapewnia rejestr kontenerów i (w wersji beta) usługę kompilacji, która będzie tworzyć obrazy Dockera z kodu hostowanego w chmurze Google.

https://cloud.google.com/compute/

https://js.hscta.net/cta/current.js

hbspt.cta.load (1169977,’ 96e4df76-0d4a-40ab-b51e-5ad2b46a426b’, {});

Microsoft Azure

podczas gdy AWS dominuje nad wszystkimi innymi dostawcami chmury, Azure jest w rzeczywistości drugim pod względem popularności. Wspierany przez dużą firmę, nigdzie się nie wybiera i jest najlepszym źródłem maszyn wirtualnych opartych na systemie Windows. Oprócz sterownika maszyny dokującej dostępne są również wbudowane rozszerzenia maszyn wirtualnych.

platforma Azure jest oficjalnym partnerem zaufanego rejestru Docker, korzystając z własnego obrazu maszyny Wirtualnej lub instalując ją samodzielnie.

https://azure.microsoft.com/en-us/

Heroku

Większość przepływu pracy Heroku jest uruchamiana przez polecenia git push. Są one nadal możliwe dzięki konfiguracji Dockera, ale alternatywa jest dostępna za pośrednictwem wtyczki Docker Compose, która umożliwia przesyłanie aplikacji kontenerowych bezpośrednio do usługi. Heroku utrzymuje również obrazy Dockera dla większości obsługiwanych języków.

https://devcenter.heroku.com/articles/docker

Quay

Quay oferuje hosting kontenerów ściśle zintegrowany z istniejącym zestawem narzędzi Docker. Logujesz się do rejestru Quay za pomocą polecenia Docker i zarządzasz kontenerami na swoim koncie.

docker login quay.io

Quay będzie współpracować z wieloma popularnymi narzędziami programistycznymi, aby umożliwić w pełni zautomatyzowane przepływy pracy, ma CLI i narzędzia internetowe do zarządzania wdrożeniami kontenerów, a także narzędzia do logowania i współpracy.

jeśli potrzebujesz usługi Kubernetes do zarządzania i aranżacji kontenerów, Quay ma usługę partnerską o nazwie Tectonic. Quay i Tectonic są budowane przez zespół CoreOS, dzięki czemu można ich również używać do hostowania i zarządzania kontenerami rkt. W rzeczywistości tektoniczny działa tylko z kontenerami rkt, ale pomyślałem, że przemycę wzmiankę.

https://quay.io/

Hyper

Hyper ma prostą propozycję: dostarczanie lokalnej abstrakcji wiersza poleceń do uruchamiania kontenerów Docker na hostingu Hypera (dostawca i lokalizacja nie są określone). Narzędzie jest łatwe w użyciu, ale kroki konfiguracji są nieco mylące.

jeśli spróbujesz postępować zgodnie z instrukcjami na stronie głównej, szybko przekonasz się, że musisz się zarejestrować i najpierw uzyskać token uwierzytelniania. Wiąże się to z podaniem Hyper danych karty kredytowej, nawet jeśli wszystko, co zamierzasz zrobić, to przetestować platformę. Po uruchomieniu hyper config i wykonaniu tych kroków Proces jest prosty.

w tym pierwszym obrazie, I pull obraz NGINX, a następnie sprawdzić, czy został wyciągnięty z images.

za pomocą narzędzia wiersza poleceń można uruchamiać i łączyć usługi oraz dołączać do nich woluminy danych i adresy IP. Większość poleceń Hypera to owijki wokół znanych poleceń dokera, zapewniające dostęp do solidnego dostawcy hostingu. Jeśli znasz Dockera, będziesz wiedział, jak używać Hypera.

https://www.hyper.sh/

Dokkur

w przypadku kontenerów hostowanych w infrastrukturze Azure Dokkur zarządza kontenerami z poziomu aplikacji, umożliwiając wybór aplikacji z poziomu GitHub lub utworzenie nowej aplikacji. O ile wiem z ich dokumentacji, używa kontenerów do rozdzielania aplikacji na kod, bazę danych i stałą pamięć masową, ale nie ma bezpośredniej obsługi Dockera ani kontroli.

https://dokkur.com/

Triton od Joyent

Triton oferuje kompleksowy pakiet usług do tworzenia, uruchamiania i koordynowania kontenerów w chmurze i serwerach typu bare metal. Wspomniałem we wstępie, że nie uwzględniłbym usług, które po prostu orkiestrowały opcje hostingu, ale Triton oferuje również własne rozwiązanie hostingowe (Chmura Triton), więc skupię się na tym.

za pomocą kilku kliknięć, Triton zapewnia kompleksowy interfejs graficzny do uruchamiania i zarządzania obrazami i kontenerami z Docker Hub lub własnych repozytoriów obrazów. Możesz tworzyć sieci nakładkowe, dodawać stałą pamięć masową i dodawać zadania debugowania. Dzięki dostępowi API do wszystkich funkcji, narzędziu CLI i głębokiej integracji z Docker, HashiCorp Terraform i innymi narzędziami od Joyent, Triton jest marzeniem zaawansowanych użytkowników.

https://www.joyent.com/triton

IBM Bluemix

domyślnie Bluemix nie zawiera obrazów kontenerów w centrum dokowania. Jest to mylące, ponieważ początkowo masz dostęp tylko do pięciu “certyfikowanych” kontenerów. Możesz skopiować publiczne obrazy Dockera na swoje konto Bluemix, ale wymaga to najpierw zainstalowania serii narzędzi CLI i poruszania się po mylącej dokumentacji Bluemix.

starałem się to uruchomić, więc zamiast tego eksperymentowałem z jednym z własnych kontenerów IBM, aby zobaczyć, co jest możliwe. Spowodowało to również “Nieznany błąd”. Jeśli możesz uruchomić Bluemix, ma on potężne opcje integracji dostępne w ofercie IBM IoT i machine learning, ale nie jest przeznaczony dla niedoświadczonych.

http://www.ibm.com/cloud-computing/bluemix/

OpenShift

inne rozwiązanie skierowane bezpośrednio do klientów korporacyjnych, OpenShift Red Hat może być zainstalowany samodzielnie lub w chmurze Red Hat. Nie można wypróbować ani eksperymentować z Openshift bez skontaktowania się z przedstawicielem handlowym, więc nie mogłem wypróbować usługi, ale oferuje ona wiele funkcji wsparcia i infrastruktury, które spodoba się użytkownikom korporacyjnym na dużą skalę.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.