{"id":55409,"date":"2018-02-05T13:05:23","date_gmt":"2018-02-05T12:05:23","guid":{"rendered":"https:\/\/blog.wedos.cz\/?p=55409"},"modified":"2021-01-14T13:09:25","modified_gmt":"2021-01-14T12:09:25","slug":"jak-se-rodi-nejrychlejsi-webhosting-na-trhu","status":"publish","type":"post","link":"https:\/\/blog.wedos.com\/cs\/jak-se-rodi-nejrychlejsi-webhosting-na-trhu","title":{"rendered":"Jak se rod\u00ed nejrychlej\u0161\u00ed webhosting na trhu"},"content":{"rendered":"\n<p>V posledn\u00edch m\u011bs\u00edc\u00edch jsme nepsali \u017e\u00e1dn\u00e9 novinky o tom, co se u n\u00e1s d\u011bje. Zkus\u00edme to malinko napravit a prvn\u00edm \u010dl\u00e1nkem bude p\u00e1r informac\u00ed o tom, jak jsme p\u0159ipravovali nejrychlej\u0161\u00ed hosting na trhu.<\/p>\n\n\n\n<!--more-->\n\n\n\n<p>Posledn\u00ed rok jsme p\u0159ipravovali nov\u00fd webhosting. Na prvn\u00ed pohled jej nepozn\u00e1te. Prod\u00e1v\u00e1me jej jako p\u016fvodn\u00ed slu\u017ebu, za p\u016fvodn\u00edch podm\u00ednek, s p\u016fvodn\u00edm n\u00e1zvem NoLimit a st\u00e1le za stejnou cenu 25 K\u010d za m\u011bs\u00edc.<\/p>\n\n\n\n<p>Vzhledem k na\u0161im pl\u00e1n\u016fm expandovat do zahrani\u010d\u00ed jsme se rozhodli, \u017ee vytvo\u0159\u00edme slu\u017ebu, kter\u00e1 bude konkurenceschopn\u00e1 nejen v \u010cR (jako n\u00e1\u0161 dosavadn\u00ed hosting), ale neztrat\u00ed se ani ve sv\u011bt\u011b. Prim\u00e1rn\u011b jsme se zam\u011b\u0159ili na rychlost a stabilitu.<\/p>\n\n\n\n<p>P\u0159i p\u0159\u00edprav\u00e1ch a v\u00fdvoji jsme si pro\u0161li mnoha slep\u00fdmi uli\u010dkami, ale v\u00fdsledek stoj\u00ed za to. Dovol\u00edme si tvrdit, \u017ee jsme p\u0159ipravili nejrychlej\u0161\u00ed hosting na trhu \ud83d\ude09&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Hardware<\/h3>\n\n\n\n<p>Pro na\u0161e nov\u00e9 slu\u017eby jsme opravdu dlouho a d\u016fkladn\u011b vyb\u00edrali nov\u00e9 servery. Nakonec jsme se rozhodli, \u017ee v\u0161echny nov\u00e9 slu\u017eby, v\u010detn\u011b&nbsp;<a href=\"https:\/\/hosting.wedos.com\/cs\/vps-on.html\" target=\"_blank\" rel=\"noopener\">VPS ON<\/a>, budeme provozovat na mimo\u0159\u00e1dn\u011b v\u00fdkonn\u00fdch serverech HPE Moonshot, Jeden takov\u00fd &#8222;server&#8220; box obsahuje 45 samostatn\u00fdch server\u016f. Dohromady zaberou 4 a 1\/3 U v racku, co\u017e je zhruba jedna desetina rackov\u00e9 sk\u0159\u00edn\u011b, ale v\u00fdkonem p\u0159ekonaj\u00ed cel\u00fd rack pln\u00fd st\u00e1vaj\u00edc\u00edch server\u016f. Sou\u010d\u00e1st\u00ed boxu jsou i dva switche.<\/p>\n\n\n\n<p>Je to jedno z nejmodern\u011bj\u0161\u00edch \u0159e\u0161en\u00ed, kter\u00e9 je na trhu. Ka\u017ed\u00fd ze 45 server\u016f je p\u0159ipojen do 2 r\u016fzn\u00fdch nez\u00e1visl\u00fdch switch\u016f rychlost\u00ed 10 Gbps (tak\u017ee ka\u017ed\u00fd server m\u00e1 konektivitu 20 Gbps) a ka\u017ed\u00fd switch je propojen ven (do s\u00edt\u011b) rychlost\u00ed 4 x 40 Gbps. Tak\u017ee ka\u017ed\u00fd box m\u00e1 konektivitu 160 Gbps sm\u011brem ven nebo do jin\u00fdch box\u016f. Konektivita je pln\u011b redundantn\u00ed.<\/p>\n\n\n\n<p>Ka\u017ed\u00fd z 45 server\u016f v HPE Moonshot m\u016f\u017ee m\u00edt (v na\u0161em p\u0159\u00edpad\u011b) 64 GB RAM a 4 x 1 TB SSD disk s NVMe rozhran\u00edm. Procesor, kter\u00fd m\u00e1 4 rychl\u00e1 j\u00e1dra, 8 vl\u00e1ken s frekvenc\u00ed 3-3,8 GHz. Servery tak\u00e9 maj\u00ed nap\u0159\u00edklad grafick\u00e9 karty.<\/p>\n\n\n\n<p>V jednom HPE Moonshot na minim\u00e1ln\u00edm prostoru tedy najdete 2 880 GB RAM, 180 TB prostoru na SSD NVMe disc\u00edch a k tomu&nbsp;v sou\u010dtu 1332 GHz CPU&#8230;<\/p>\n\n\n\n<p>HPE Moonshot\u016f u n\u00e1s m\u00e1me ji\u017e nyn\u00ed 15. V\u00fd\u0161e uveden\u00e1 \u010d\u00edsla si tedy vyn\u00e1sobte 15&#8230; Je to nejv\u011bt\u0161\u00ed instalace podobn\u00fdch server\u016f v \u010cR a z\u00e1rove\u0148 z\u0159ejm\u011b p\u016fjde o jedno z nejv\u011bt\u0161\u00edch cloudov\u00fdch \u0159e\u0161en\u00ed (HPE Moonshot jsou p\u016fvodn\u011b navr\u017eena speci\u00e1ln\u011b pro pot\u0159eby cloudu). V\u0161e v podstat\u011b funguje v opravdick\u00e9m cloudu (ji\u017e brzo nab\u00eddneme klient\u016fm). Cloudem nemysl\u00edme laick\u00fd pojem \u00falo\u017ei\u0161t\u011b, ale skute\u010dnou cloudovou slu\u017ebu, kdy v\u00fdpadek jednoho uzlu nem\u00e1 vliv na provoz slu\u017eby, proto\u017ee provoz je okam\u017eit\u011b spu\u0161t\u011bn jinde.<\/p>\n\n\n\n<p>V\u00fdb\u011bru hardware a jeho testov\u00e1n\u00ed jsme se v\u011bnovali rok a v\u011b\u0159\u00edme, \u017ee na\u0161e rozhodnut\u00ed je zcela spr\u00e1vn\u00e9.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">\u00dalo\u017ei\u0161t\u011b<\/h3>\n\n\n\n<p>Od ledna do \u0159\u00edjna 2017 jsme testovali a vyb\u00edrali \u00falo\u017ei\u0161t\u011b pro nov\u00e9 slu\u017eby. Nakonec jsme se rozhodli pro distribuovan\u00e9 s\u00ed\u0165ov\u00e9 \u00falo\u017ei\u0161t\u011b, kter\u00e9 je rozprost\u0159en\u00e9 p\u0159es v\u00fd\u0161e uveden\u00e9 servery. P\u0159i v\u00fdpadku HPE Moonshot nebo jednotliv\u00fdch server\u016f, by to nem\u011blo m\u00edt vliv na provoz slu\u017eeb. Nem\u011blo by, ale o tom a\u017e o p\u00e1r odstavc\u016f pozd\u011bji&#8230;<\/p>\n\n\n\n<p>\u00dalo\u017ei\u0161t\u011b je aktu\u00e1ln\u011b tvo\u0159en\u00e9 jako zrcadlo 1 + 1, p\u0159i\u010dem\u017e zva\u017eujeme zda nebudou v budoucnu 1 + 1 + 1. Nyn\u00ed je to tedy tak, \u017ee ve\u0161ker\u00e1 data jsou na 2 r\u016fzn\u00fdch m\u00edstech v s\u00edti v kopii. Po\u010d\u00edt\u00e1me, \u017ee jedna kopie bude v jednom datacentru a druh\u00e1 v druh\u00e9m.<\/p>\n\n\n\n<p>V\u0161echna data jsou online. V p\u0159\u00edpad\u011b, \u017ee by fat\u00e1ln\u011b selhala a\u017e polovina server\u016f, tak to nebude m\u00edt dopad na slu\u017eby. Pokud ud\u011bl\u00e1me do budoucna zm\u011bnu na 1 + 1 + 1 a m\u011bli bychom \u017eiv\u00e1 data 3x, tak by muselo vypadnou v\u00edce jak dv\u011b t\u0159etiny v\u0161ech server\u016f, aby nastal probl\u00e9m a museli bychom s\u00e1hnout po z\u00e1loh\u00e1ch.<\/p>\n\n\n\n<p>\u00dalo\u017ei\u0161t\u011b jsme testovali opravdu dlouho a d\u016fkladn\u011b. Provedli jsme obrovsk\u00e9 mno\u017estv\u00ed test\u016f a nakonec jsme si vybrali \u0159e\u0161en\u00ed, kter\u00e9 pova\u017eujeme za nejvhodn\u011bj\u0161\u00ed pro na\u0161e slu\u017eby. Jedn\u00e1 se o open source \u0159e\u0161en\u00ed na linuxu.&nbsp;<\/p>\n\n\n\n<p>Vyzkou\u0161eli jsme v\u011bt\u0161inu r\u016fzn\u00fdch distribuovan\u00fdch \u00falo\u017ei\u0161\u0165, kter\u00e1 jsou na trhu a to jak free, tak placen\u00e9 verze. Byli jsme p\u0159ekvapeni, jak\u00e9 jsou rozd\u00edly ve v\u00fdkonu a stabilit\u011b.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">S\u00ed\u0165<\/h3>\n\n\n\n<p>P\u0159i p\u0159\u00edprav\u011b nov\u00fdch slu\u017eeb jsme se rozhodli, \u017ee celou na\u0161i s\u00ed\u0165 mus\u00edme pos\u00edlit nejen intern\u011b, ale i sm\u011brem do internetu. Jako prvn\u00ed hosting v \u010cR jsme tedy p\u0159e\u0161li na s\u00ed\u0165 100 Gbps. Loni na ja\u0159e jsme vyb\u00edrali nov\u00e9 routery a switche a tak\u00e9 podepsali smlouvu na nov\u00e9 trasy 3 x 100 Gbps mezi Hlubokou a Prahou.&nbsp;<\/p>\n\n\n\n<p>Na podzim jsme routery a switche koupili, p\u0159ipravili pl\u00e1n na novou s\u00ed\u0165ovou infrastrukturu a b\u011bhem v\u00e1no\u010dn\u00edch sv\u00e1tk\u016f jsme se pustili do pr\u00e1ce.&nbsp;<\/p>\n\n\n\n<p>Jen pro informaci dod\u00e1me, \u017ee aktu\u00e1ln\u011b m\u00e1me konektivitu sm\u011brem do internetu 3 x 100 Gbps, p\u0159es 3 r\u016fzn\u00e9 nez\u00e1visl\u00e9 trasy od 2 r\u016fzn\u00fdch poskytovatel\u016f na 2 r\u016fzn\u00e1 m\u00edsta v Praze, kde jsme p\u0159ipojeni ke 3 dal\u0161\u00edm r\u016fzn\u00fdm poskytovatel\u016fm.&nbsp;<\/p>\n\n\n\n<p>D\u00edky nov\u00e9 topologii budeme je\u0161t\u011b v\u00edce odoln\u011bj\u0161\u00ed proti \u00fatok\u016fm a budeme m\u00edt dostatek v\u00fdkonu na dal\u0161\u00ed nov\u00e9 slu\u017eby.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Dv\u011b datacentra<\/h3>\n\n\n\n<p>Budujeme druh\u00e9 datacentrum, kde nyn\u00ed \u010dek\u00e1me na dod\u00e1n\u00ed elektrorozvad\u011b\u010d\u016f, motorgener\u00e1tor\u016f (celkem jich bude 5!!!) a UPS.&nbsp;<\/p>\n\n\n\n<p>Jakmile nov\u00e9 datacentrum spust\u00edme, tak budeme m\u00edt data rozprost\u0159ena p\u0159es ob\u011b budovy. A ani tot\u00e1ln\u00ed v\u00fdpadek jedn\u00e9 z budov neohroz\u00ed provoz slu\u017eeb.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Software<\/h3>\n\n\n\n<p>V\u0161e m\u00e1me zalo\u017een\u00e9 na opensource \u0159e\u0161en\u00edch. Prozrad\u00edme, \u017ee nov\u00fd webhosting funguje kompletn\u011b na Dockeru. Nem\u00e1me tam \u017e\u00e1dnou klasickou virtualizaci. M\u00e1me odd\u011blen\u00e9 servery pro PHP procesy, jin\u00e9 budou ji\u017e brzo pro statick\u00e9 str\u00e1nky (proxy) a dal\u0161\u00ed odd\u011blen\u00e9 servery pro datab\u00e1ze. V\u0161e je propojen\u00e9 2 x 10 Gbps a tak s\u00ed\u0165 nic neomezuje.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Roz\u0161\u00ed\u0159en\u00ed t\u00fdmu<\/h3>\n\n\n\n<p>Najali jsme i zku\u0161en\u00e9ho kolegu ze zahrani\u010d\u00ed, kter\u00fd n\u00e1m s t\u00edm pom\u00e1h\u00e1. U\u017e je n\u00e1s v pr\u00e1ci 32, z toho 2 lid\u00e9 z Polska, 2 z Ruska a 1 z Ukrajiny. Jsme r\u00e1di, \u017ee se n\u00e1m da\u0159\u00ed dr\u017eet st\u00e1l\u00fd t\u00fdm, kter\u00fd se roz\u0161i\u0159uje. V\u0161ichni jsou u n\u00e1s spokojeni \ud83d\ude42&nbsp;<\/p>\n\n\n\n<p>Samoz\u0159ejm\u011b \u0161ikovn\u00fdch lid\u00ed, kte\u0159\u00ed se cht\u011bj\u00ed u\u010dit nov\u00e9 v\u011bci a pracovat s nejnov\u011bj\u0161\u00edmi technologiemi nen\u00ed nikdy dost, a proto hled\u00e1me dal\u0161\u00ed kolegy.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">A jsme u konce a fungujeme<\/h3>\n\n\n\n<p>Po necel\u00e9m roce p\u0159\u00edprav jsme na podzim za\u010dali s testov\u00e1n\u00edm r\u016fzn\u00fdch sc\u00e9n\u00e1\u0159\u016f. V\u0161e vypadalo dob\u0159e. Rozhodli jsme se, \u017ee spust\u00edme slu\u017ebu na ve\u0159ejn\u00e9 testy. P\u0159ihl\u00e1sili se n\u00e1m stovky klient\u016f. V\u0161e fungovalo kr\u00e1sn\u011b, a tak jsme spustili objedn\u00e1vky beta verze slu\u017eby. Po 3 t\u00fddnech jsme slu\u017ebu pustili do ostr\u00e9ho provozu. V\u0161e vypadalo dob\u0159e a v\u0161e bylo rychl\u00e9.<\/p>\n\n\n\n<p>Jen\u017ee po cca dal\u0161\u00edch 3 t\u00fddnech provozu jsme za\u010dali m\u00edt prvn\u00ed doposud nezn\u00e1m\u00e9 probl\u00e9my. Servery p\u0159i v\u011bt\u0161\u00ed z\u00e1t\u011b\u017ei kolabovaly. Z ni\u010deho nic najednou load stoupl na mnohon\u00e1sobek a n\u00e1sledn\u011b do\u0161lo k p\u00e1du cel\u00e9ho serveru, co\u017e znamen\u00e1 velk\u00fd probl\u00e9m. Hledali jsme a p\u00e1trali jsme a zjistili jsme, \u017ee se jedn\u00e1 o bug v ovlada\u010di s\u00ed\u0165ov\u00e9 karty. Ud\u011blali jsme \u00fapravy a situaci se povedlo vy\u0159e\u0161it a od t\u00e9 doby jsme se s t\u00edmto probl\u00e9mem nesetkali. Prvn\u00ed probl\u00e9m byl v polovin\u011b prosince a odstran\u011bno to bylo p\u0159ed V\u00e1noci.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">N\u00e1sledovala dal\u0161\u00ed komplikace<\/h3>\n\n\n\n<p>Na serverech p\u0159ib\u00fdvaly slu\u017eby a rostla z\u00e1t\u011b\u017e. Bohu\u017eel tam skokov\u011b narostla z\u00e1t\u011b\u017e tzv. metadata server\u016f. Softwarov\u00e9 \u00falo\u017ei\u0161t\u011b, kter\u00e9 pou\u017e\u00edv\u00e1me, funguje tak, \u017ee m\u00e1te servery s daty v cel\u00e9 s\u00edti a webov\u00e9 servery (zpracov\u00e1vaj\u00edc\u00ed z\u00e1kaznick\u00e9 po\u017eadavky) se dotazuj\u00ed tzv. metadata server\u016f, kde jsou p\u0159\u00edslu\u0161n\u00e9 soubory v s\u00edti ulo\u017eeny. Kolem V\u00e1noc narostl po\u010det po\u017eadavk\u016f na tyto metadata servery na v\u00edce ne\u017e 300 tis\u00edc za sekundu a postupn\u011b rostl na cca 520 tis\u00edc dotaz\u016f za sekundu. To u\u017e je docela slu\u0161n\u00e1 z\u00e1t\u011b\u017e. T\u00edm se syst\u00e9m op\u011bt stal nestabiln\u00edm a problematick\u00fdm.<\/p>\n\n\n\n<p>Situaci jsme \u0159e\u0161ili s v\u00fdvoj\u00e1\u0159i \u00falo\u017ei\u0161t\u011b a nebyla snad noc, kdybychom ned\u011blali r\u016fzn\u00e9 zm\u011bny nastaven\u00ed a \u00fapravy. Bohu\u017eel v\u011bt\u0161ina \u00faprav znamenala cel\u00e9 pole zrestartovat a t\u00edm byl v\u00fdpadek cca 3-5 minut. Sna\u017eili jsme se to d\u011blat v noci. Situaci se zlep\u0161ila, ale nebylo to optim\u00e1ln\u00ed.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">A dal\u0161\u00ed komplikace?<\/h3>\n\n\n\n<p>Ano, p\u0159i\u0161la dal\u0161\u00ed komplikace. Na metadata serverech bylo tak velk\u00e9 mno\u017estv\u00ed po\u017eadavk\u016f, \u017ee jsme narazili na probl\u00e9m s v\u00fdkonem p\u0159enosu po\u017eadavk\u016f mezi j\u00e1drem linuxov\u00e9ho syst\u00e9mu a ovlada\u010dem NVMe disk\u016f. Je to technologie rychl\u00e1, ale moc nov\u00e1 na to, aby bylo v\u0161e 100% odlad\u011bn\u00e9. P\u0159i velk\u00e9m mno\u017estv\u00ed po\u017eadavk\u016f do\u0161lo k po\u0161kozen\u00ed informac\u00ed o metadatech. Jednou za den nebo dva dny se ztratila n\u011bjak\u00e1 informace a od toho okam\u017eiku do\u0161lo ke zpomalen\u00ed cel\u00e9ho syt\u00e9mu a jedin\u00e1 mo\u017enost n\u00e1pravy byla mo\u017en\u00e1 restartem cel\u00e9ho syst\u00e9mu plus kontrolou filesyst\u00e9mu na metadata serverech. T\u00edm jsme museli servery odstavit na cca 20-25 minut. Plus n\u00e1sledn\u011b prob\u00edhala synchronizace dat po dobu cca 1 hodiny, kdy byl cel\u00fd cluster v\u00fdrazn\u011b zpomalen.<br><br>Situaci jsme \u0159e\u0161ili op\u011bt s v\u00fdvoj\u00e1\u0159i. \u0158e\u0161ili jsme i placenou podporu, ale nic nevedlo k c\u00edli. Rozd\u011blili jsme v\u0161echna data do v\u00edce cluster\u016f, nav\u00fd\u0161ili po\u010det server\u016f s metadaty, ale i tak to nebylo optim\u00e1ln\u00ed. Probl\u00e9m se neobjevoval tak \u010dasto, ale stejn\u011b jednou za t\u00fdden jsme se s n\u00edm setkali.&nbsp;<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Co d\u00e1le?<\/h3>\n\n\n\n<p>Ud\u011blali jsme mnoho \u00faprav v nastaven\u00ed, zkusili jsme dal\u0161\u00ed zm\u011bny v nastaven\u00ed cel\u00e9ho \u0159e\u0161en\u00ed. Zm\u011bnili jsme hodn\u011b v\u011bci, zm\u011bnili jsme celou logiku slu\u017eby a najednou jsme m\u011bli v\u00fdrazn\u011b men\u0161\u00ed z\u00e1t\u011b\u017e na metadataserverech. \u0158\u00e1dov\u011b jsme z\u00e1t\u011b\u017e sn\u00ed\u017eili na tis\u00edcinu.&nbsp;<\/p>\n\n\n\n<p>Po otestov\u00e1n\u00ed jsme zkusili nasadit \u00fapravy na prvn\u00ed dva servery. V\u0161e bylo v po\u0159\u00e1dku, ale n\u011bkolikr\u00e1t se n\u00e1m stalo, \u017ee do\u0161lo k po\u0161kozen\u00ed n\u011bjak\u00e9ho souboru. Op\u011bt jsme m\u011bli detektivn\u00ed pr\u00e1ci a hledali p\u0159\u00ed\u010dinu a \u0159e\u0161en\u00ed. Po cca 4 dnech jsme p\u0159i\u0161li na \u0159e\u0161en\u00ed a od t\u00e9 doby v\u0161e bylo v po\u0159\u00e1dku.<\/p>\n\n\n\n<p>Webservery jsou zalo\u017een\u00e9 na Dockeru a t\u00edm jsme schopni jednak bezv\u00fdpadkov\u011b navy\u0161ovat parametry nebo \u0159e\u0161it l\u00e9pe a pru\u017en\u011bji po\u017eadavky na v\u00fdkon nebo sn\u00ed\u017eit probl\u00e9m p\u0159i mo\u017en\u00e9 v\u00fdpadku webov\u00e9ho serveru. V\u0161e se hl\u00edd\u00e1 automaticky, co\u017e p\u0159in\u00e1\u0161\u00ed i n\u011bkter\u00e9 probl\u00e9my. Nap\u0159\u00edklad v p\u00e1tek 2. 2. jsme se setkali s probl\u00e9mem s dostupnost\u00ed u \u010d\u00e1sti server\u016f, proto\u017ee na n\u00e1s byl veden siln\u00fd \u00fatok a syst\u00e9m v\u0161e logoval a p\u0159i sn\u00ed\u017een\u00ed voln\u00e9ho m\u00edsta pod 13% za\u010dal postupn\u011b preventivn\u011b pou\u0161t\u011bt weby jinde. Po dosa\u017een\u00ed hranice 87% zapln\u011bn\u00ed prostoru na v\u0161ech serverech se preventivn\u011b vypnul a nedovolil zapnout dokud jsme neud\u011blali n\u011bjak\u00e9 \u00fapravy v nastaven\u00ed. Tohle byl probl\u00e9m, kter\u00fd jsme m\u011bli na \u010d\u00e1sti server\u016f v p\u00e1tek a p\u00ed\u0161eme o tom v jin\u00e9m\u00a0<a href=\"https:\/\/blog.wedos.cz\/jak-nas-web-byl-pod-utokem-anebo-uz-nas-zase-nekdo-nema-rad\" target=\"_blank\" rel=\"noopener\">\u010dl\u00e1nku<\/a>.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">V\u00fdsledek?<\/h3>\n\n\n\n<p>Postupn\u011b jsme zm\u011bny nasadili na v\u0161ech nov\u00fdch serverech a v\u00fdsledkem je mimo\u0159\u00e1dn\u011b rychl\u00fd hosting. Dovol\u00edme si tvrdit, \u017ee jde o nejrychlej\u0161\u00ed hosting na trhu. Jsou tam nejen rychl\u00e9 first byte, rychl\u00fd p\u0159\u00edstup k soubor\u016fm, rychl\u00e1 pr\u00e1ce s administrac\u00ed, ale i mimo\u0159\u00e1dn\u011b rychl\u00e1 pr\u00e1ce s datab\u00e1z\u00ed.<br><br>V\u0161e je d\u00edky mnoham\u011bs\u00ed\u010dn\u00edmu v\u00fdvoji a testov\u00e1n\u00ed a lad\u011bn\u00ed b\u011bhem posledn\u00edch 6 t\u00fddn\u016f, kdy jsme si skute\u010dn\u011b hodn\u011b u\u017eili. V\u0161em na\u0161im klient\u016fm, kte\u0159\u00ed se setkali s komplikacemi, se omlouv\u00e1me. Posledn\u00edch 14 dn\u00ed jsme m\u011bli tyto nov\u00e9 slu\u017eby bez v\u00fdpadk\u016f a se 100% dostupnost\u00ed. V\u011b\u0159\u00edme, \u017ee tomu tak bude i nad\u00e1le.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Co je\u0161t\u011b chyst\u00e1me?<\/h3>\n\n\n\n<p>Na v\u00fdvoji je\u0161t\u011b pracujeme a hned tak to neskon\u010d\u00ed. Chceme tam nyn\u00ed p\u0159idat podporu IPv6 a IDS\/IPS ochranu, kter\u00e1 tam nen\u00ed. To by m\u011blo b\u00fdt hotov\u00e9 v \u0159\u00e1du dn\u00ed. Potom chyst\u00e1me proxy server a WPS (nebo WMS) a HA verzi slu\u017eby (tedy vysokou dostupnost).<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Proxy<\/h4>\n\n\n\n<p>Pro zrychlen\u00ed odbaven\u00ed v\u0161ech po\u017eadavk\u016f p\u0159ipravujeme to, \u017ee v\u0161echny statick\u00e9 po\u017eadavky odbav\u00ed proxyserver. T\u00edm se je\u0161t\u011b v\u00fdrazn\u011b zrychl\u00ed na\u010d\u00edt\u00e1n\u00ed str\u00e1nek.&nbsp;<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">WPS nebo WMS<\/h4>\n\n\n\n<p>Upraven\u00fd webhosting bude mo\u017en\u00e9 do budoucna koupit ne jako sd\u00edlenou verzi, ale jako verzi s vyhrazen\u00fdmi prost\u0159edky.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Vysokou dostupnost<\/h4>\n\n\n\n<p>Dokon\u010dujeme druh\u00e9 datacentrum, kde budeme cht\u00edt m\u00edt druhou kopii dat a druhou \u010d\u00e1st webserver\u016f. Budeme schopni nab\u00eddnout slu\u017ebu, kter\u00e1 pojede ve 2 datacentrech sou\u010dasn\u011b, a tak probl\u00e9m v jednom se nep\u0159enese do druh\u00e9ho a v\u00e1\u0161 web pojede za v\u0161ech okolnost\u00ed.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>V posledn\u00edch m\u011bs\u00edc\u00edch jsme nepsali \u017e\u00e1dn\u00e9 novinky o tom, co se u n\u00e1s d\u011bje. Zkus\u00edme to malinko napravit a prvn\u00edm \u010dl\u00e1nkem bude p\u00e1r informac\u00ed o tom, jak jsme p\u0159ipravovali nejrychlej\u0161\u00ed hosting na trhu.<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[32,3],"tags":[],"class_list":["post-55409","post","type-post","status-publish","format-standard","hentry","category-novinky","category-spolecnost"],"_links":{"self":[{"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/posts\/55409","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/comments?post=55409"}],"version-history":[{"count":2,"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/posts\/55409\/revisions"}],"predecessor-version":[{"id":55429,"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/posts\/55409\/revisions\/55429"}],"wp:attachment":[{"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/media?parent=55409"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/categories?post=55409"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.wedos.com\/cs\/wp-json\/wp\/v2\/tags?post=55409"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}