Keresés

Részletes keresés

Doky586 Creative Commons License 2025.07.25 0 0 165748

Felőlem kB ban is kilehet ugyanazt fejezni. Csak nullákból lesz több. 

Előzmény: Jahno (165746)
Jahno Creative Commons License 2025.07.25 0 0 165747

És még össze is kócolódot, meg....

Előzmény: innerimages (165743)
Jahno Creative Commons License 2025.07.25 0 0 165746

Kérdés. hogy csak gigákról beszélünk-e vagy?

Előzmény: Doky586 (165744)
Jahno Creative Commons License 2025.07.25 0 0 165745

Itt biztos nem néhány gigáról van szó. Kérdés mennyire mennyiről. Én anyagom lehet 1 giga környékén.

Előzmény: XNC (165742)
Doky586 Creative Commons License 2025.07.25 0 0 165744

Fordítva kérdem: hány gigának kell 70 óra..?

Előzmény: XNC (165742)
innerimages Creative Commons License 2025.07.25 0 0 165743

Ha az a pár TB jellemzően pl. xml vagy más, kis méretű (pár kilobyte-os) fájlokból áll, akkor kell neki idő mert az olyan kis fájlokat sosem a max. szekvenciális írási sebesség közelében másolják a meghajtók, hanem nagyságrendekkel lassabban (még az SSD-k is).

Előzmény: XNC (165742)
XNC Creative Commons License 2025.07.25 0 0 165742

Néhány gigának nem kell több óra visszatöltés, mint amiről írtak.

Előzmény: Doky586 (165741)
Doky586 Creative Commons License 2025.07.25 0 0 165741

A szöveges (web)oldalaknak (formázott txt) nem kell sok hely.

A képek külön lehettek tárolva időrendben évekre bontva.

Előzmény: XNC (165740)
XNC Creative Commons License 2025.07.25 0 0 165740

"bár nem tudom hány gigáról van szó."

--

Vagy inkább teráról....

Előzmény: Jahno (165739)
Jahno Creative Commons License 2025.07.24 0 0 165739

"Gyanús előjelek nem voltak, hogy a proci rosszalkodik?"

 

Ezel szerint nem, de Face csoportjukban is jönnek a töketlen hülyék akik az infra ismerete nélkül osztják az eszet, oda azért írtam 1-2 trükkösebb hibát, itt meg ugye valami lehet a mikrokóddal ment félre. Nagyvasnál előfordul. hogy szól, de ott is láttunk csodákat, oszt ha a filerendszer kócolódik, akkor ott ahogy látom vége a dalnak és max. építik az új oldalt. Érdekes, hogy nem volt DB mentésük, bár nem tudom hány gigáról van szó.

Előzmény: RazorX911 (165736)
RazorX911 Creative Commons License 2025.07.24 0 0 165738

Úgy 1 napja. (24-25 órája posztolták, a Reddit-en. A FB-on plusz pár órával korábban, a posztoló írása szerint.)

Előzmény: Doky586 (165737)
Doky586 Creative Commons License 2025.07.24 0 0 165737

Ezt hány napja írták? 😊

Előzmény: RazorX911 (165736)
RazorX911 Creative Commons License 2025.07.24 0 0 165736

PH: A Redditról másolva...

 

"Gyors helyzetjelentés, sajnos semmi igazán lelkesítőt nem tudunk írni:

- az adatbázisszerveren hardveres hiba lépett fel, ami jelenleg úgy fest, hogy a februárban upgrade-elt processzorhoz köthető

- ez a hiba magával rántotta a teljes adatbázist, a könyvtárstruktúra is sérült

- a hardveres rendszert sem tudtuk helyreállítani mostanáig, eleinte jónak tűnt, de aztán a recovery-be is beleborult

- visszakerült a régi cpu, és most tűnik először stabilnak a gép

- telepítődik a rendszer, másolódnak az adatok (egy-egy rész másolása is 4-5 óra)

- ha minden fent van, utána tudjuk csak elkezdeni megnézni, hogy az elvileg meglévő adatok gyakorlatilag is megvannak-e, tényleg minden el tud indulni stb.

Sajnos ezen a ponton biztosra kizárni az adatvesztést nem tudjuk (de reméljük, hogy elkerüljük), ahogy azt sem, hogy mikor lesz ebből újra működő lapcsalád. Ma nem túl valószínű."

 

Mi a tök?? Túlhúzták, a Xeont vagy füstös 13/14.-ik gen CPU-t raktak bele a szerverbe? Gyanús előjelek nem voltak, hogy a proci rosszalkodik?

Jahno Creative Commons License 2025.07.24 0 0 165735

Itt már lehet nem is ciki van, hanem buktak mindent.

Előzmény: Doky586 (165734)
Doky586 Creative Commons License 2025.07.24 0 0 165734

PH: eddig is volt átlag heti 1 kiesés de azok legfeljebb 1 órán át tartottak. Most is lehet a heti 1 kiesésre gyúrnak de mostmár kedd reggeltől hétfő estig fog tartani.. 😁

Ez így nagyon ciki.

exhighand Creative Commons License 2025.07.24 -1 0 165733

Annak semmi akadálya sincsen, hogy egy HDD házába be legyen építve egy redundáns tömbösítő, ami az egyes lemezeket kezeli. Én nagyon pontosan leírtam a kulcs szavakat amik miatt szükséges a nagy méretű belső redundáns adatmennyiség.
- sok nulla egymás után
- sok 'I' egymás után
- kevés nulla-'I' átmenet
- RLL hibajavítás

- eszement frekvencia

Az ECC az már csak kb, 2,25% lévén 4K-s szektorok vannak általában. Így utólag megtaláltam a White Paper-ben egy részét az érveknek. Tök érthetően leírja, hogy a nulla-egy az már nem a mágnesezettség szintje, hanem a mágneses momentum polaritása. Meg hogy miért nem horizontális a felületre írás, hanem miért vertikális

innerimages Creative Commons License 2025.07.24 0 0 165732

Az Intel VMD (leánykori nevén RST) egész korrekt, menthetőség szempontjából is. Általában még a tartalék lemezre váltás is működik. :)

Előzmény: Jahno (165731)
Jahno Creative Commons License 2025.07.24 0 0 165731

Külön szoftveres cuccal meg az XP és előtte is. Legfeljebb nem volt értelme. Akkor sem értettem a kommersz otthoni vonalat, mikor a rendes kontrollerek kezelték a dolgot, itt a vashoz odaírták, hogy raid a *nix alatt ugyanazt a szoftveres baromságot kellett művelni, mint nem raides vason és az sem úgy műxött, hogy kivettem a vincsit aztán újraépült. Akkor meg kb. minek ugye, de legalább volt némi adatbiztonságabb. Első Linuxos vasamból is kirántottam, csere, nem megy. Ja, újra kell csinálni a partíciókat, raid szinkron, boot record, minden szépen kézzel. Hát, jó cucc ja.

Előzmény: innerimages (165730)
innerimages Creative Commons License 2025.07.24 0 0 165730

Már a Windows 7 is tudta az SW RAID-et, de ott sem a HDD saját maga kezeli a redundanciát, mint amiről eredetileg írtál.

Előzmény: exhighand (165728)
Jahno Creative Commons License 2025.07.24 0 0 165729

SW raid, az régebbi találmány, bár a raid az nem mentés ugye és ebben az esetben lehet éppen ezért szívnak, hogy ha ilyenkor a filerendszer összekócolódik, akkor mindegy, hogy raid vagy sem.

Előzmény: exhighand (165728)
exhighand Creative Commons License 2025.07.24 -3 0 165728

A W10-nek van egy tároló funkciója, amivel RAID-ra nem képes régi alaplappal rendelkező gépnek is lehet adni redundáns tömböket, sőt ha jól emlékszem megoldható, hogy a rendszer is ilyenen legyen.

Előzmény: Doky586 (165727)
Doky586 Creative Commons License 2025.07.23 0 0 165727

Pedig már sok évtizede feltalálták a mentést..

Ha új hardvert kellett venni akkor biztos még várják a futárt.. 😄

Előzmény: RazorX911 (165724)
Jahno Creative Commons License 2025.07.23 0 0 165726

Szerintem kb. annyit tudunk, amit nyilatkoztak, hogy dráma van és szopolnak. Facén a sok okosaka meg infrastruktúra ismerete nélkül magyaráz a fotelből és mindenki más helikopter.

Előzmény: RazorX911 (165724)
innerimages Creative Commons License 2025.07.23 0 0 165725

Nem emlékszem olyan HDD-re ami 1:1 redundanciával dolgozik. Persze ettől még létezhet(ett), de nem lehetett túl elterjedt.

 

ZFS lemezen a COPIES=2 beállítással van olyan okosság, hogy a ZFS két másolatot ír az adatokról két külön checksummal együtt. Így ha az ellenőrzőösszeg nem egyezik meg az egyik blokk adataival, akkor a másik blokk ellenőrzőösszegét / adatát kikeresi, és kijavítja az első ellenőrzőösszeget / adatblokkot. De ezt nem a HDD maga menedzseli önállóan (meg nem is szokványos és nem is ajánlott mint redundancia).

Előzmény: Jahno (165723)
RazorX911 Creative Commons License 2025.07.23 0 0 165724

Van valami kósza infó, a FB/Reddit világán túl, hogy mi lehet most, a PH-val?? Mire számíthatnak, a látogatók, az oldal helyreállása kapcsán? Hardveres zűr is szóba került, remélhetőleg, nem úgy jártak, mint annó a magyaritasok.hu is. (Az összes magyarítás oda lett.)

Jahno Creative Commons License 2025.07.23 0 0 165723

No akkor szerinted létezik ilyen "néhány" HDD? "Néhány olyan HDD is létezik, amelynek a redundáns adatok számára ugyanakkora hely van , mint az írható adat terület."

 

Idézve innen https://forum.index.hu/Article/viewArticle?a=170058012&t=9157541

Előzmény: innerimages (165722)
innerimages Creative Commons License 2025.07.23 0 0 165722

Tudomásom szerint egy drive-on belül sehol nem használnak ilyen tárhelypazarló megoldást. Max. a RAID1-nél, de az meg már 2 drive. :)

 

Olyan van egyes HDD-knél, hogy az adatot először a tányérok gyors részén lévő media cache-be írja a drive, aztán onnan másolja át a hosszú távon tároló zónába. Így rövid ideig egyszerre két helyen létezik identikus adat, de az nem azt a célt szolgálja, hogy folyamatosan ott legyen hanem csak addig marad amíg a másolat visszaellenőrzésre nem került, aztán újabb adat kerül a helyére. Illetve SSD-knél ugyanígy a gyors SLC cache-be íródik először, majd onnan az MLC / TLC / QLC hosszútávon tároló területre.

Előzmény: Jahno (165721)
Jahno Creative Commons License 2025.07.23 0 0 165721

Jó, de akkor most hol tartunk? Tényleg 2 tera adat írható az 1 terás meghajtóra, mert olyan redundáns?

Előzmény: innerimages (165720)
innerimages Creative Commons License 2025.07.23 0 0 165720

Nem tudom, hogy mire gondolt de a jelalak önmagában vagy nem ad választ semmire vagy mindenre is ad mert attól függ, hogy mit látunk bele.

 

Azok a HDD-k még úgy működtek, napjaink HDD-inél mást látsz a szkópon.

 

Érdemes még tudni, hogy ilyen mérésekhez a sima mérőfej nem jó hanem aktív differenciális szonda kell, ami önmagában egy kisebb szkóp ára.

 

Egyébként ma már nem direktben az olvasófejet mérjük hanem egyszerűbb a fejblokkra integrált előerősítő kimenetét mert ahhoz nem kell megbontani a meghajtót (és úgy egyúttal az is ellenőrizve van - ha pedig valami nem stimmel akkor úgyis egyben cseréljük, nem külön). Ráadásul a modern drive-okon a firmware is figyeli a fejek állapotát és ha a bekapcsolási öntesztnél hibát érzékel (pl. megnőtt a belső ellenállásuk) akkor a konkrét típustól függően eleve fel sem pörög a HDD.

Előzmény: Jahno (165714)
Hehe164 Creative Commons License 2025.07.22 0 0 165719

Hát igen, valójában az sem. :-)

Előzmény: Jahno (165718)

Ha kedveled azért, ha nem azért nyomj egy lájkot a Fórumért!