Přejít na obsah

szt

Členové_50
  • Příspěvky

    226
  • Registrace

  • Přítomen

Vše od uživatele szt

  1. ad "hnát chodce přes parkoviště": To na první pohled chápu, ale: V nastavení mapy.cz je pro chodce možnost volit typ navigace short/tourist. Short je nejkratší možná, i za cenu že jde přes hnusné úseky, to je to parkoviště. A ano, trasuje čímkoli kam může chodec legálně vstoupit, takže cokoli vyjma dálnic. Tourist parkoviště obejde (pokud to neznamená extrémně delší trasu). Nelze vyloučit že cesta přes parkoviště je sice hnusná, ale nejvíce short. Analogicky je rozdíl silniční vs horské kolo, na nastavení "silniční" je to schopno použít i freventované silnice, MTB to objede polňačkou, byť za cenu delší trasy. Ano, prvních 100km s jakoukoli navigací, včetně mapy.cz jsem také kroutil hlavou, dnes si troufám říct že po vypozorování logiky trasování lze předvídat kudy mne povede, ve smyslu jak kvalitní cesta to bude. Chce to se s tím sžít a ne odepisovat po první trase. Zcela bez legrace, seznam.cz si na ochraně slabších (tedy i dětí) docela zakládá, viz to jejich bezpečnostní centrum. Zkus navrhnout přidání vyjma "short" a "tourist" i režimu "dítě jde do školy/špatně se orientující senior jde o lékárny", třeba by se jim to i marketingově dobře prezentovalo. A chce to promyslet zda by byl významný rozdíl "tourist" vs "dítě jde do školy", několik málo rozdílů mne napadá, ale ... navíc kdyby něco takového zavedli a pak by se na takovéto trase něco stalo ... asi je to nesmysl. Navíc pak by se roztrhl pytel s volbami způsobu trasování, trasy pro crossová kola, trasy pro traktory. Ale "dítě jde do školy" by se mohlo marketingově líbit. Netrasovat kolem prodejen s nezdravýma potravinama, kolem bordelů, přes velké silnice ... ;-)
  2. 2geometr: Slušnost je chybu v (jakýchkoli) mapách nahlásit. Pokud jde o mapy.cz, já za posledního čtvrt roku hlásil dva problémy a oba jsou již vyřešeny. https://napoveda.seznam.cz/forum/threads/96692/1 (První reakce Ondry zmatená, za dva dny se opravil a dnes je vyřešeno) https://napoveda.seznam.cz/forum/threads/96683/1 (Vyřešeno) Zkus vzít poslední odkaz jako inspiraci a chybu nahlásit, je to práce na pět minut. Očekávat že mapové podklady které jsou zdarma budou vždy a všude bez chyb není reálné, důležité je nebýt černým pasažérem a občas přispět. Já s mapy.cz jen na MTB najezdil tento rok 4000km a žádný problém, vyjma jediného který byl do měsíce od nahlášení opraven, a to by se navíc ještě dalo diskutovat zda MTB může nebo nemůže jezdit přes brody.
  3. dtx, vygoogli si co je to "google maps music controls". Já se obávám že ta konstrukce se split screenem je celá zbytečná, minimálně od doby kdy existuje google maps music controls". Specialista (IMHO oprávněně) nepředpokládá že si někdo bude redukovat velikost obrazovky na polovinu kvůli něčemu co může mít integrováno v aplikaci. Ostatně právě proto tam tu integraci udělal.
  4. Pokud se bavíme o tomto tématu: https://www.reddit.com/r/GalaxyNote9/comments/d1290s/are_google_maps_off_center_while_phone_is_in/ , pak v diskusi převažuje názor že je to by design, jistě by se dal i vygooglit changelog který by to potvrdil nebo vyvrátil, ale nezkoumal jsem, třeba se vygooglení changelogu někdo ujme. Pakliže tomu je tak jak zaznívá v odkazované diskusi, bude tomu tak proto že tým UX inženýrů usoudil že nové uspořádání je ergonomičtější a odpor proti tomu nemá smysl. Kolik kdo zná mobilních aplikací ve kterých si může uživatel měnit rozmístění prvků ? Já moc ne, rozmístění prvků obvykle bývá "take it or leave it".
  5. Prochy: Pokud se siwimu nechce uklízet nebo pokud bydlí hned vedle kamenolomu, může si jako další počítač koupit takový kde výrobce s prašností prostředí počítá. Třeba https://www.dellstore.cz/dell-prachovy-filtr-pro-optiplex-sff-750-abfy/zbozi139240.html, uživatelsky vyměnitelné, v nejmenovaném kamenolomu je s tím vrátný spokojený, vyčistí bez vysavače, bez šroubováku, proudem vody během jedné minuty. Jeden má na počítači, jeden sušit ve skříni. A ne, neplatí nikoho za "periodické odborné čištění", zvládne to sám, a to má chudák děda jen jednu ruku. Jeho zaměstnavatel dá za celou dobu životnosti PC dá jen 10EUR za reservní filtr. A PC bude i po pěti letech v kamenolomu uvnitř hezky čistý, po 58 měsících se prodá jako "voňavka po důchodci" s 2M zárukou :-) I teplota uvnitř PC bude super, odhlédnu-li tedy od toho že vrátnicí je plechový kontejner, ve kterém je v létě 40+ stupňů. Ještěže nečte tuto diskusi, jinak by se domáhal instalace klimatizace.
  6. Liqid jasně, i u onoho kuřáka vysátí také pomohlo a ne že ne. Ale i tady platí že v prvé řadě bych v takovéto posteli spát nechtěl. Moje babička každé ráno vynesla peřiny hezky na sluníčko, prostěradlo vyklepala a věřím že kdyby používala notebook v posteli, problém s prachem by neměla. Já používám notebook v posteli také (a nejen v posteli) a problém nemám. Možná je to konstrukcí notebooku, možná intervalem měnění ložního prádla, čert ví. Až kamarádka vyleje do notebooku kafe, budeme se bavit o tom že je normální notebooky vysušovat ? :-) Jistě, za určitých okolností ano, ale není to IT služba která dělá ajťáka ajťákem. Tedy ano, tam kde je problém s čistotou může mít problémy cokoli, nejen IT technika. Ale téma začalo týden starým Mikrotikem, jeho majitel na tom předpokládám není tak špatně aby na něm měl po týdnu provozu vrstvu prachu :-)
  7. Siwi, já domácnostní počítač zevnitř neviděl asi dvacet let, a asi deset let jsem neviděl zevnitř žádný počítač. Proč? Prvních pět let života počítače do nich lozí technik výrobce v rámci záruky, a po pěti letech mne počítač nezajímá. Konfiguraci si naklikám před objednáním, takže nejspíš už ani nevím jak se do počítačů strkají RAMky. Mí zákazníci to vědí a jsou s tím srozuměni, lovím v jiných vodách než ti kdož se živí periodickým vysáváním a ?upgrady? dávno ekonomicky mrtvých PC, zákazníka můj přístup nakonec vyjde levněji. Tím že jsem nebyl uvnitř žádného počítače už přes deset se dokonce nepokrytě chlubím, někdo pochopí proč, někoho to odradí, dokonce to vědomě používám jako filtr. Těm které to odradí beztak nemám co nabídnout, trh je naštěstí dost velký. Někdy i žertovně říkám že až se mne budou chtít zbavit, stačí říct kouzelnou větu ?chci vyčistit počítač? a já uteču sám, dobrovolně a nebudu řešit výpovědní dobu. Zatím této možnosti nikdo nevyužil, ačkoli ji vlastně myslím vážně. V datacentrech jsou prachové filtry, a na mnoha pracovištích a v mnoha domácnostech je řízená cirkulace vzduchu s filtrem nebo alespoň čistička vzduchu. Když tak přemýšlím v jakých domácnostech jsem se naposledy vyskytoval, asi by si tam majitelé klepali na čelo kdybych se jich ptal zda se jim práší na počítač, některé by to i urazilo, to je úplně mimo mou představivost. Ano, před dvaceti lety jsem pracoval ve firmě kde v jedné kanceláři seděl těžký kuřák který měl klávesnici nečitelnou a plnou popela, tomu se myslím počítač vysával a byl to fakt humus. Než dotyčný umřel na karcinom plic, pak už ne. Zda máš nebo nemáš doma bordel nevím, ale marně přemýšlím nad vysvětlením jak se stane že se v čistém udržovaném bytě zapráší allinone PC umístěný metr vysoko and podlahou do té míry, že vrstva prachu ovlivní jeho výkon. Sorryjako, ale v takové domácnosti to musí být o zdraví, a to co bych v takovém bytě řešil jako první by rozhodně nebyl počítač. Uvědomuješ si že ten prach i dýcháš? Racionálně: Buď je to velmi nešťastná konstrukce toho PC, nebo nějaké mastné výpary typu olej, cigarety. Nebo s výkonem nic nebylo, ona sugesce dokáže divy. Ale příběh tak jak ho prezentuješ není možný. A pokud se tam vážně tolik práší, řeš potenciální zdravotní následky pobytu v takovém prostředí, tvé zdraví má větší hodnotu než sebelepší PC.
  8. 2geometr: V pohodě, většina příspěvků je beztak z poslední doby, a je jasné že to nebude pokračovat lineárně dále. Až se vyležím z nachlazení, brzy to tu nechám klasickým diskusím o tom jaký notebook má jaké panty :-)
  9. Inu, SAP HANA jsem viděl poprvé v době kdy SAP tvrdil že se nesmí virtualizovat a že musí běžet přímo bare metal na certifikovaném HW, pak jen v nějakém testovacím virtuální prostředí kde výkon nikoho nezajímal, SAP není moje specializace. Ani tu nepíšu o SAPu, řešíme abstraktní problém chlazení, ne okrajové případy jakože někdo má počítač na vrátnici v prašném kamenolomu nebo SAP HANA. Obecně víme že SAP byl vždy náročný na zdroje, a to nejen ty výpočetní, dávat jej jako měřítko sem mi také nepřijde úplně přiléhavé. Pořád ale nevím jak dle tebe souvisí změna alokace zdrojů s live migrací. V každém případě díky že jsi sem snad poprvé napsal něco malinko odbornějšího než jaký notebook má jaké panty.
  10. 2geometr: Vypadá to tak, snad vyjma toho prvního snad před deseti lety, za který se dnes stydím. To bylo v době kdy jsem snad i já kupoval ASUSy, mladická nezkušenost. Ale dost jsem jich tu o hodinkách přečetl, neboj. To že nepřispívám k hodinkovým tématům může být tím že jsem se naučil mlčet, když něčemu nerozumím.
  11. ad eskimak "Slubujem, naposledy, uz nebudem reagovat: - licencie po hodinach Vravel som ze sa nebavim o tvojom hrackarskom cloudiku. - ake stahovanie VM, co fetujes? Ak nemas dost vykonu, tak potrebujes na VM pridat CPU alebo mem. Na beznom os (napr. SuSe) a aplikaciach na to potrebujes downtime. Ktory dostanes bezne napr. raz za 2 mesiace ba par hod." Stěhování se nedělá kvůli výkonu, ale když chci vypnout fyzický server. Update managementu, úspora elektřiny, cokoli. Včetně redistribuce zdrojů. Na VMWaru se to jmenuje vMotion (https://www.vmware.com/products/vsphere/vmotion.html), na Hyper-V Live Migration (https://docs.microsoft.com/en-us/windows-server/virtualization/hyper-v/manage/live-migration-overview). SuSe to samozřejmě umí také: https://www.suse.com/documentation/sles-12/book_virt/data/sec_libvirt_admin_migrate.html Zde je to i s obrázky, ale to si děláš legraci že o hot-add funkcionalitě nevíš: https://www.vmwareblog.org/hot-add-ram-hot-plug-vcpus-vsphere-vms-different-environments/ To že obsedantně měříš teplotu ti věřím, moje babička zase každý den opisuje stav plynoměru, každý má nějaké obsese. Ale tvrdit že pro přestěhování VM ji musím vypnout, to fakt ne. Tomu o hračkách nerozumím, VMWare je leader virtualizace, to jsi dost ustřelil, nedivím se že jsi to zeditoval.
  12. Prochy mám, ale nenosím, by se v nich ošoupala kolečka Navíc při vyšších teplotách se z nich nadměrně odpařuje olej, výrobce určitě nepočítá s tím že je budu zatěžovat Ale vážně: Mám troje, ale dohromady asi tak v ceně pořádného Xeonu, tak asi se není úplně čím chlubit. A navíc polovina z nich je podraná jak člověk strčí ruku někam do hloubi racku a škrábne se o kolejnici, takové škrábance se blbě rozlešťují. No, jsou někde ve stěhovací krabici, v takové té hromadě kterou už dva roky nebyl čas otevřít. Asi bych je měl začít nosit nebo je prodat, ten mezistav "dva roky v krabici" asi není zdravej.
  13. Licence vzorkované po hodinách? Jakýkoli cloud a v onpremise třeba již od roku 2011 VMWare ve VSPP, viz https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/downloads/partners/vspp/vmware-service-provider-program-product-usage-guide.pdf, věta "Information about the virtual memory of each Virtual Machine that is ?powered on? is gathered hourly and consolidated into a report at the Service Provider site." Ano, aplikace bývají per user, ale ne vše jsou aplikace. ad "Aj VM je pre aplikaciu len bezny OS a na jeho resize (cpu, mem) je potreba downtime. " Nevím proč by se při stěhování VM měla resizovat CPU nebo mem, obvyklé je virtuál přelít tak jak je. Ale když chci, tak takový VMWare podporuje memory hot-add nejméně od verze 5.1 (viz https://pubs.vmware.com/vsphere-51/index.jsp?topic=%2Fcom.vmware.vsphere.vm_admin.doc%2FGUID-0B4C3128-F854-43B9-9D80-A20C0C8B0FF7.html), zcela běžná věc. CPU hot-add analogicky: https://docs.vmware.com/en/VMware-vSphere/6.7/com.vmware.vsphere.vm_admin.doc/GUID-285BB774-CE69-4477-9011-598FEF1E9ACB.html
  14. ad "Nejednou mi totiž prachem zanesený přehřátý počítač začal podivně zlobit. Pracoval pomalu, některé programy nespustil vůbec. Zejména v létě. Když jsem ho od prach vyčistil, vše se vrátilo do normálu." V takovýchto situacích říkám že lepší než obsedantně měřit teplotu a "čistit počítač" vyjde lépe nedávat počítač na zem, ale na stůl nebo si za 200 Kč koupit stojan: https://www.tsbohemia.cz/pojizdny-podstavec-pod-pc-skrin-cerny-plast_d167027.html Ano, pokud tam byl centimetr prachu a už se ani netočil ventilátor, jistě to mohlo vydráždit throttle management procesoru k regulaci výkonu. To je ovšem extrém, snadno řešitelný to podložkou za 200 Kč nebo lepším výběrem skříně. Upřímně, pokud má někdo počítač zanesený prachem do té míry že to ovlivní chlazení, je to v prvé řadě problém hygienický, nikoli ajťácký. Já bych se v prostředí kde se takto práší zdržovat nechtěl a pokud to snad byla koksovna v Ostravě nebo vrátnice kamenolomu, existují průmyslová PC kde je toto řešeno. My se tu ale bavíme buď o datacentrech kde jsou prachové filtry a kde se chodí v návlecích na boty, nebo o týden starém Mikrotiku, kde prach být žádný nemůže. Ano, znám lidi kteří si každý měsíc hodinu vysávají počítače. Těm říkám že kdyby tu hodinu šli do mekáče smažit hranolky za 120/hodinu, mají za pět let vyděláno krásných 7200 Kč na nový, nezaprášený počítač.
  15. ad "upeciem CPU aj k 90°, ale je to Xeon a ten je trocha tolerantnejsi" V běžné ekonomické realitě se každý investor snaží maximálně vytěžit své investice. I nikterak ekonomicky vzdělaná parta tří úkáček nebo Turků si pořídí jedno auto a jezdí s ním 24/7 nonstop Uberem, každý osm hodin denně. Motor se prakticky nezastaví, ačkoli Pepa z garáže na kraji vesnice by jistě tvrdil že se tím motor "více opotřebuje". V datacentrech funguje podobný princip - 90 stupňů je pro Xeon běžná dlouhodobá provozní teplota, stejně jako je běžné že v datacentru jsou všechny procesory vytíženy nejméně na 80%. Jakmile v některém ze serverů vytížení poklesne, zasáhne automatický orchestrátor, přelije virtuály na nevytížené servery a jeden server vypne. Jakmile zatížení vzroste, nabootuje další server a přelije virtuály tam. Představa že ve větší infrastruktuře se bude procesor nudit je absurdní, nejedná-li se o hot-standby server. Úspora elektřiny, úspora licencí (minimálně těch které se vzorkují po hodinách). Pokud je to veřejný cloud, případná volná kapacita se spotově prodá v rámci cloudu (pročpak asi AWS nabízí "spot instances") ? Hezky je to vysvětleno na https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-spot-instances.html, Amazon opravu nenechává své Xeony se flákat (v úzkostné představě že se snad "přehřejí"), naopak každé procento výkonu se hezky prodá. Proto je Bezos miliardář - procesor vyždíme do poslední kapky, obsedantní měření teploty by mu dolary nevydělalo. Pokud máte někdo zaměstnavatele nebo zákazníka který vám toleruje plýtvání zdroji a platí vás za obsedantní měření teploty v pásmu 10 stupňů pod výrobcem stanoveným warning thresholdem, buďte rádi, ale nechlubte se tím, není čím.
  16. To já nevím zda jsem byl někdy v datacentru, jen vím že ta čepice a svetr co vozím v kufru auta už by se měly oprat. Čeká datacentra strašně chladí, Češi to mají rádi a provozovatelé datacenter jim rádi dělají radost. Čím méně Celsia, tím víc Adidas. Skutečná datacentra se chladí těsně pod oněch 30 stupňů, viz třeba https://www.datacenterknowledge.com/archives/2008/10/14/google-raise-your-data-center-temperature https://www.computerworld.com/article/2483971/it-s-getting-warmer-in-some-data-centers.html ("Intel recently conducted a 10-month test to evaluate the impact of using only outside air (also known as air-side economization) to cool a high-density data center in New Mexico, where the temperature ranged from 64 degrees to as high as 92 degrees. Intel said it found "no consistent increase" in failure rates due to the greater variation in temperature and humidity.") 92F je 33C. Tedy ona velká datacentra běží na teplotách ze kterých by běžného obsedantního měřiče teplot a měniče past kleplo :-)
  17. Jojo, takové ty modré Ovislinky někde běží dodnes. Škoda že jejich majitelé neví že by je měli chladit ;-) I tady nakonec platí že na horku běží cokoli, je jedno zda Mikrotik nebo OvisLink, on ten křemík nepozná v jakém výrobku zrovna je, takže má vlastnosti všude stejné.
  18. Prochy, se chechtáš, ale já nejméně jednou ročně někde vyhazuju IT firmu, která historicky k zákazníkovi jednou za tři měsíce posílá sedmnáctiletého brigádníka, aby tam za 700Kč "vyčistil počítač od prachu". Tedy 4x ročně 700Kč, za pět let 14.000Kč :-) Obvykle jde o počítače s pořizovací cenou 10.000Kč... Když tohle vidím, kam se hrabou šmejdi a jejich prodeje hrnců a dek důchodcům. Zde jeden webísek náhodně vygooglený jednoho z "odborných čističů", už ten design se k tomuhle businessplánu skvěle hodí :-) http://www.hd.cz/sluzby/nemocny_pocitac.php
  19. Ano, průměrný Čech ví lépe než inženýři u výrobce co výrobek snese. Průměrný Čech se nikdy nepodívá ani do katalogu, ani do datasheetu, protože výrobci tomu přece nerozumí a líp tomu rozumí Franta z PC bazaru (autům pak rozumí Pepa z garáže na konci vesnice). Kde podle tebe začíná "vysoká teplota"? A kde začíná "vysoká teplota" dle datasheetů výrobců? Ekonomická realita: Takový Dell mi dá pět let záruku na server o kterém říká (viz https://www.dell.com/support/manuals/cz/cs/czbsd1/poweredge-r730/r730_ompublication/expanded-operating-temperature?guid=guid-e8cdc6ea-0355-4e26-8c90-8fd8741ec068&lang=en-us): Continuous operation5°C to 40°C at 5% to 85% RH with 29°C dew point. ? 1% of annual operating hours?5°C to 45°C at 5% to 90% RH with 29°C dew point. Po pěti letech je to starý krám jehož další životnost mne nezajímá a server jde tak jako tak pryč. Takže jednoduchá slovní úloha: Jaký ekonomický smysl má v serverovně s tímto serverem chladit na méně než 35 stupňů? Také není žádoucí srovnávat 17W Mikrotiku v místnosti 10m3 s rackem v Amazon datacentru na který připadají 4m3 vzduchu a má příkon řádově v jednotkách kilowattů, ten poměr výkon/objem je někde zcela jinde.
  20. K tématu chlazení obecně: S tím chlazením čehokoli je to (nejen) v IT malinko nezdravě rozšířená obsese. Můj středoškolský učitel fyziky vždy žertovně zdůrazňoval že teplota tání křemíku je 1500 stupňů. Faktem je že Intel v katalozích uvádí maximální provozní teploty kolem 90stupňů. Učitelka biologie zase vysvětlovala že tepelné ztráty živočichů jsou úměrné povrchu těla, tedy má-li Mikrotik plochu poloviční nebo čtvrtinovou než jiný výrobek, bude pocitově teplejší (ad "rozměrná skříňka"). Kdyby sis však přepočítal tepelný výkon na plochu, zjistil bys že všechno topí plus minus stejně. Obsedantní měřiči teploty a měniči různých chladicích past by si měli na stránce https://www.intel.com/content/www/us/en/support/articles/000005597/processors.html přečíst: Could my processor gets damaged from overheating?It's unlikely that a processor would get damaged from overheating, due to the operational safeguards in place. Processors have two modes of thermal protection, throttling and automatic shutdown. When a core exceeds the set throttle temperature, it will reduce power to maintain a safe temperature level. The throttle temperature can vary by processor and BIOS settings. If the processor is unable to maintain a safe operating temperature through throttling actions, it will automatically shut down to prevent permanent damage. A pak přijde Čech s injekční stříkačkou a chladicí pastou a snaží se být chytřejší než tým inženýrů který v Intelu nadesignoval ThermalManagement. Spolužák z gymplu má v nejmenovaném krajském městě kamenný PC bazar a PC servis, za peníze zákazníků kteří mu tam nosí počítače na výměnu chladicí pasty "protože se to přehřívá" si každé tři roky koupí nové Báwo. Narozdíl ode mne nikomu neříká že přehřívání je nesmysl, Báwo je Báwo a když se někdo může živit jako televizní věštkyně, proč on by se nemohl živit jako tuner chlazení. ;-) Poslední technologie kde jsem řešil reálné přehřívání byla dědova Škodovka v roce 1985. 2siwi: Dej si do Google "qca9531 temperature", dostaneš info že i 70stupňů je zcela OK, nakonec servisáci od loukostových ISP tvrdí že existují Mikrotiky které 10let běží na půdě pod střechou kde je v zimě minus pět a v létě plus padesát a no problem, jen se občas po bouřce vymění napájecí adaptér za 150Kč.
  21. HW offload na bridgi je záležitost roku 2017, takže pokud jsi Mikrotika kupoval teď, musel bys mít hoodně starý kus ležící někde ve skladu, aby v něm byt pre 6.41 firmware. Tedy je v pořádku že tam byl už z quicksetu. Hledal bys to ve vlastnostech portu v bridge, tedy bridge/ports/etherx/hw offload. "Malinko vlažný" být může, má maximální příkon 17W, zkus někdy položit ruku na dvacítku žárovku :-)
  22. HW Offload je nastavení umožňující i v SW bridge konfiguraci využít HW výkon switch chipu, pokud na dané desce nějaký je. Viz https://wiki.mikrotik.com/wiki/Manual:Interface/Bridge#Bridge_Hardware_Offloading Tuším že konverze na 6.41 ne vždy HW offload zapnula, takže dodnes existují uživatelé kteří jej mají zbytečně vypnutý, čímž zbytečně ztrácejí trochu výkonu. Ale pokud se ti nechce se tím zabývat, nutné to není, je to jen věc na checklistu při kontrole konvertovaných konfigurací, která "se sluší".
  23. eskimak: Praktická zkušenost je taková že pokud jde o bezpečnost, bývají na tom systémy administrované "konzervativními" ajťáky nejhůře. Ajťák který má fobii z čehokoli složitějšího než je ASUS, ajťák který má fobii z cloudu, pakliže se toto sejde v jednom člověku, je jisté že osobnostně je nastaven tak že se neorientuje v současných možnostech a "konzervativnost" je jen obranou před světem kterému nerozumí, tak jako se moje nebožka babička bála posílat SMSky. Pakliže osobnost nedohlédne současné možnosti, nutně nevidí ani rizika a vlastně pak ani neví před čím vším potřebuje jím spravovaný systém chránit. Uchyluje se pak k "jistotám" typu "firewall, antivir, žádný cloud", implementuje je metodicky špatně a narazím-li na práci takovéhoto ajťáka, vím kolik a zhruba jakých děr v systému najdu. A přitom z hlediska "best practice" z devadesátých let má vše plus minus správně, jenomže je bohužel připraven na minulou válku. Útočník bude útočit se znalostmi současnými, nebude hrát fér hru typu "o téhle technologii eskimak nic neví, tak tímhle na jeho systém útočit nebudu". IT bezpečnost není golf. Realita roku 2019 je taková že v cloudu je dnes spousta dat, včetně například zdravotnických, a to i těch kdo kdy měl kapavku a kdo kdy byl na potratu, viz třeba https://news.microsoft.com/cs-cz/features/prvni-ceska-nemocnice-v-cloudu/ Ano, a ukládají se tam šifrovaně. Nakonec i každý Applista má dnes iCloud, včetně iCloud Photos ke má domácí videa a fotografie. A až se rozšíří například Ubiquiti, budou v cloudu nejen konfigurace, ale i celé controllery domácích wifin: https://help.ubnt.com/hc/en-us/articles/360013022914-UniFi-Managing-UniFi-Cloud-Controller-Subscriptions
  24. eskimak, AESem zašifrovanou konfiguraci klidně pošlu kamkoli, třeba veřejně na Václavák, protože AES je AES. Pokud jde o mail, ani tady nevidím důvod proč bych při korektní implementaci TLS a bezpečném serveru nemohl něco svěřit serveru. A pokud mail serveru nevěřím, použiji při exportu parametr hide-sensitive, jak jsem ostatně uvedl výše. Pokud však umíš chroupat AES, směle do toho. Na https://www.uschovna.cz/zasilka/QGVXAED6KV4Y9LL9-6VD/ jsem uložil mou zašifrovanou konfiguraci (openssl enc -aes-256-cbc -salt -in config.rsc -out eskimak.enc -pass file:key.bin), buď prosím tak laskav, rozšifruj ji a výsledek nám sem napiš. Až to dokážeš, přehodnotím mou praxi ukládat šifrovaná data do cloudu.
  25. siwi, vysvětlení záhady je takové že tvá konfigurace vznikla na verzi starší než 6.41. Tam neexistoval bridge, ale "master-port konstrukce". Při upgradu na 6.41 došlo ke konverzi na bridge, viz https://wiki.mikrotik.com/wiki/Manual:Master-port#Automatic_conversion a viz changelog k 6.41 konverze na bridge byla minimalistická, odkaz na ether2 zachovala a verze vyšší než 6.41 z důvodu zpětné kompatibility, pokud se objeví adresa nad member portem bridge, přehodí ji automaticky nad bridge jako takový (a zapíše to po startu do logu jako varování). Je to jen a pouze pro zachování kompatibility, pokud někdo upgraduje, aby mu konfigurace nepřestala fungovat. Proto je dobře že jsi odkaz na ether2 opravil na odkaz na bridge. Stejnou úpravu by se slušelo udělat i minimálně na DHCP serveru, případně na firewallu, případně všude jinde kde se odkaz na ether2 vyskytuje. Ideálně udělat si export konfigurace a podívat se kde v něm všude je odkaz na ether2. A dále bych zkontroloval zda máš pozapínaný HW offload tam kde jej chceš mít.
×
×
  • Vytvořit...