Keresés

Részletes keresés

innerimages Creative Commons License 2025.07.23 0 0 165725

Nem emlékszem olyan HDD-re ami 1:1 redundanciával dolgozik. Persze ettől még létezhet(ett), de nem lehetett túl elterjedt.

 

ZFS lemezen a COPIES=2 beállítással van olyan okosság, hogy a ZFS két másolatot ír az adatokról két külön checksummal együtt. Így ha az ellenőrzőösszeg nem egyezik meg az egyik blokk adataival, akkor a másik blokk ellenőrzőösszegét / adatát kikeresi, és kijavítja az első ellenőrzőösszeget / adatblokkot. De ezt nem a HDD maga menedzseli önállóan (meg nem is szokványos és nem is ajánlott mint redundancia).

Előzmény: Jahno (165723)
RazorX911 Creative Commons License 2025.07.23 0 0 165724

Van valami kósza infó, a FB/Reddit világán túl, hogy mi lehet most, a PH-val?? Mire számíthatnak, a látogatók, az oldal helyreállása kapcsán? Hardveres zűr is szóba került, remélhetőleg, nem úgy jártak, mint annó a magyaritasok.hu is. (Az összes magyarítás oda lett.)

Jahno Creative Commons License 2025.07.23 0 0 165723

No akkor szerinted létezik ilyen "néhány" HDD? "Néhány olyan HDD is létezik, amelynek a redundáns adatok számára ugyanakkora hely van , mint az írható adat terület."

 

Idézve innen https://forum.index.hu/Article/viewArticle?a=170058012&t=9157541

Előzmény: innerimages (165722)
innerimages Creative Commons License 2025.07.23 0 0 165722

Tudomásom szerint egy drive-on belül sehol nem használnak ilyen tárhelypazarló megoldást. Max. a RAID1-nél, de az meg már 2 drive. :)

 

Olyan van egyes HDD-knél, hogy az adatot először a tányérok gyors részén lévő media cache-be írja a drive, aztán onnan másolja át a hosszú távon tároló zónába. Így rövid ideig egyszerre két helyen létezik identikus adat, de az nem azt a célt szolgálja, hogy folyamatosan ott legyen hanem csak addig marad amíg a másolat visszaellenőrzésre nem került, aztán újabb adat kerül a helyére. Illetve SSD-knél ugyanígy a gyors SLC cache-be íródik először, majd onnan az MLC / TLC / QLC hosszútávon tároló területre.

Előzmény: Jahno (165721)
Jahno Creative Commons License 2025.07.23 0 0 165721

Jó, de akkor most hol tartunk? Tényleg 2 tera adat írható az 1 terás meghajtóra, mert olyan redundáns?

Előzmény: innerimages (165720)
innerimages Creative Commons License 2025.07.23 0 0 165720

Nem tudom, hogy mire gondolt de a jelalak önmagában vagy nem ad választ semmire vagy mindenre is ad mert attól függ, hogy mit látunk bele.

 

Azok a HDD-k még úgy működtek, napjaink HDD-inél mást látsz a szkópon.

 

Érdemes még tudni, hogy ilyen mérésekhez a sima mérőfej nem jó hanem aktív differenciális szonda kell, ami önmagában egy kisebb szkóp ára.

 

Egyébként ma már nem direktben az olvasófejet mérjük hanem egyszerűbb a fejblokkra integrált előerősítő kimenetét mert ahhoz nem kell megbontani a meghajtót (és úgy egyúttal az is ellenőrizve van - ha pedig valami nem stimmel akkor úgyis egyben cseréljük, nem külön). Ráadásul a modern drive-okon a firmware is figyeli a fejek állapotát és ha a bekapcsolási öntesztnél hibát érzékel (pl. megnőtt a belső ellenállásuk) akkor a konkrét típustól függően eleve fel sem pörög a HDD.

Előzmény: Jahno (165714)
Hehe164 Creative Commons License 2025.07.22 0 0 165719

Hát igen, valójában az sem. :-)

Előzmény: Jahno (165718)
Jahno Creative Commons License 2025.07.22 0 0 165718

És a hely az létezik?

Előzmény: Hehe164 (165717)
Hehe164 Creative Commons License 2025.07.22 0 0 165717

Az "egy" ebben a megközelítésben nem létezik...

Előzmény: Jahno (165716)
Jahno Creative Commons License 2025.07.22 0 0 165716

Plusz, mínusz, nulla, egy. Ez 4 érték egy helyre. Állat.

Előzmény: Maketheworldabetterplace (165715)
Maketheworldabetterplace Creative Commons License 2025.07.22 0 0 165715

Atomonként kiolvassa plusz, mínusz vagy 0.:)

Előzmény: Jahno (165714)
Jahno Creative Commons License 2025.07.22 0 1 165714

"nem sokaknak van hozzá legalább 500 MHz-es szkópja, hogy egy modernebb HDD read channel-jének a sávszélességével versenyezzenek."

 

És ha van is kiderül belőle az állítás, ilyen formában ellenőrizhető? Vagy mire gondolt a költő, végigolvasom a teljes fizikai felületet, ami 2x annyi adatot köp majd ki, mint ami a címkén van?

Előzmény: innerimages (165711)
innerimages Creative Commons License 2025.07.22 0 0 165713

Még mindig az előzményeken durcizol?

Előzmény: Hehe164 (165707)
innerimages Creative Commons License 2025.07.22 0 0 165712

Nem ismerem az említett ecopityut, de rákerestem és az látszik rajta, hogy szereti amit csinál.

 

Szerintem nem baj az ha nem marad az ember a kaptafánál mert szélesíti a látókörét.

 

A saját szakterületemen is folyamatos a tanulás, hogy naprakész legyen az ember mert így lehet haladni a fejlődéssel, nem mellesleg a megszerzett tudás más dolgokhoz is segítséget ad.

Előzmény: főgóré (165706)
innerimages Creative Commons License 2025.07.22 0 1 165711

Szervusz!

Ugye milyen kedves és barátságos itt mindenki? :)

"Néhány olyan HDD is létezik, amelynek a redundáns adatok számára ugyanakkora hely van , mint az írható adat terület."

Szerintem a Basic Redundant Write Cycle-ra gondoltál mert az pontosan így működött, hogy  összehasonlítási alapként redundáns másolatot igényelt  az adatból. A Reed-Solomon-nál ugye ez már nem volt szükséges mert a szektoronként tárolt ECC bitek száma egyenes arányosságban van a kezelhető hibák számával. Ma már a Viterbi, a BCH és az LDPC az uralkodó (utóbbiak az SSD-knél és a memóriakártyáknál is).

Az analóg módon rögzítő korszakban még lehetett szkópon nézve szerkeszteni a biteket, viszont a modern, tisztán digitális módon tároló HDD-k már nem az analóg FM (később MFM) megoldást használják, hanem az RLL egy variánsát, ami jóval hatékonyabb mert az órajel az adatba van integrálva és így 3x akkora adatsűrűséget biztosít mint az FM (és 2x akkorát mint az MFM), illetve ez az általad említett rögzítési problémára is megoldást ad a mágneses fluxusváltások számának minimalizálásával. Ezt fejelték meg még az SMR-el, a HAMR-el és az MAMR-el, így maximalizálva az elérhető adatsűrűséget. Mindenesetre nem sokaknak van hozzá legalább 500 MHz-es szkópja, hogy egy modernebb HDD read channel-jének a sávszélességével versenyezzenek.

Visszatérve az eredeti kérdésre: fenntartom  véleményem, hogy napjaink HDD-in nem kivitelezhető a teljes formázás utáni visszaállítás mert a mai technológia fizikai tűréshatára túl kicsi hozzá. Vannak olyan esetek ami annak látszik mintha, de valójában nem: például a gyors formázás, mert a Win Vista előtt a gyorsformázás megegyezett a teljessel, ami azért volt csak lassabb mert lemezellenőrzést is tartalmazott, viszont mindkettő csak a fájlrendszer táblákat törölte, hogy a meghajtó üresnek látsszon, de valójában mindkettő esetén ugyanúgy rajta maradt az adat. A Vista óta viszont az összes Windows nullákkal írja felül (tehát zero fill-ezi) a meghajtók felhasználói adatterületét, ha nincs bejelölve a "gyorsformázás" opció (ez is jó a hibás szektorok felfedezésére). Persze a tartalék területen (ahonnan a meghajtó firmware-je a P/G/stb listák alapján jókra cseréli a hibás szektorokat) és a szervizterület egyes moduljaiban (pl. media cache) lehetnek maradék fájlok, azokat csak VSC-k (Vendor Specific Command) segítségével lehet törölni. Te gondolom tudod, de másnak még hasznos lehet, hogy a napjainkban sok helyen használt NTFS-en ugye ott a Master File Table (MFT), amely azt kezeli, hogy mely fájlok hol vannak. Az MFT mérete használat közben csak növekedni tud mert az NTFS fájlrendszer soha nem távolítja el belőle a fájlbejegyzéseket (a fájlok törlésekor nem kerülnek törlésre, Windows 10 és 11 esetén pedig gyorsformázáskor csak az első 229 bejegyzés íródik felül), csak a fájlok által használt területet jelöli meg szabadként, így ha fájlokat adunk egy NTFS fájlrendszer kötethez, akkor további bejegyzések kerülnek hozzáadásra az MFT-hez ami növeli a méretét (egy bejegyzés 1 kB). Amikor pedig fájlokat törlünk NTFS fájlrendszerből, akkor az MFT bejegyzéseik újra szabadként és felhasználhatóként lesznek megjelölve, viszont a bejegyzésekhez lefoglalt lemezterület nem kerül újraelosztásra és az MFT mérete sem csökken (az MFT bejegyzései még törölt fájlokra való hivatkozáskor sem felszabadíthatók mert a $MFT fájl részét képezik). Tehát egy adatmentő szoftver az MFT-ből származó fájlokra mutató, maradék hivatkozásokat jó eséllyel meg fogja találni, viszont a tényleges adatok mind használhatatlan nullák lesznek hexeditorban. Ilyenkor van az, hogy a "csodaprogramok" mindig találnak valamit, még akkor is, ha nincs ott semmi. Persze csak miután kifizettük a licenszt a teljes mentésért, akkor derül ki, hogy a visszaállított fájlok használhatatlanok.

Előzmény: exhighand (165690)
Jahno Creative Commons License 2025.07.22 0 0 165710

Végül is határozottan hülyeséget állítani aztán nem indokolni sokkal egyszerűbb.

Előzmény: exhighand (165709)
exhighand Creative Commons License 2025.07.21 -2 0 165709

Ne okoskodj. 

Előzmény: Jahno (165704)
RazorX911 Creative Commons License 2025.07.21 0 0 165708

Fúúú, de lájkolnám ezt a technikát... VHS-re! A letörölt filmeket visszaállítani róluk. Vajon lehetséges volna? Egyszer a '90-es években látott filmben, volt egy érdekes "böszme nagy" kütyü, mintha valami hasonlót csináltak volna abban is, elővarázsolva egy másik felvételt, a szalagról. (krimi/thriller/horror kat. környéke, nem egy vígjáték)

Előzmény: exhighand (165690)
Hehe164 Creative Commons License 2025.07.21 0 0 165707

🤔

Előzmény: főgóré (165706)
főgóré Creative Commons License 2025.07.21 0 0 165706

mér' , egy kutya ?

Előzmény: Hehe164 (165705)
Hehe164 Creative Commons License 2025.07.21 0 0 165705

"ja , bocs

az innerimagesnek szántam "

 

Viszont így eltaláltad...

Előzmény: főgóré (165699)
Jahno Creative Commons License 2025.07.21 0 0 165704

ECC az hibajavítás a redundancia meg többet tárol. Kicsit más.

Előzmény: exhighand (165702)
Jahno Creative Commons License 2025.07.21 0 1 165703

Látom megszaladt a bullshit generátor.

Előzmény: exhighand (165700)
exhighand Creative Commons License 2025.07.21 -1 0 165702

Azok már szerintem PMR működnek és vertikális és paritásos a felírás. De ez csak saccolás részemről, mert én sem vagyok régóta naprakész - lévén 65 éves vagyok. Azért ha valaki a HDD-k esetében nem tudott a redundanciáról ( ECC, Red Solomon pl.) de belevau - akkor ezt szóváteszem.

Előzmény: Doky586 (165701)
Doky586 Creative Commons License 2025.07.21 0 0 165701

Az 5,25" MFM hdd-k valóban így működtek, de már 30 éve kihaltak.

Én a 2,5-3,5" SATA hdd-kre gondolok inkább mint használat eszköz.

Előzmény: exhighand (165690)
exhighand Creative Commons License 2025.07.21 -1 0 165700

Itt csak a kemény mag szokott lódítani. A modern HDD-ben olyan magas a működési frekvencia hogy valamilyen módon védekezni kell az ellen, hogy sok 0, vagy sok 1 bit kerüljön egymás után felírásra. Az ilyen magas frekvenciákon a szinkronizálás védelme miatt azt is biztosítani kell, hogy elegendően sok 0-1, vagy 1-0 átmenet kerüljön időnként olvasásra. A régi HDD-ken eleve kb. 10% volt a redundancia 512-es szektorok esetén. A mostani PMR rendszer és TMR fejek esetén az RLL akár 30-40%-os is lehet. De olvastam egy 25Tb-os lemeznél, hogy annyira magas a frekvencia, hogy írásnál a fejet "be kell lengetni" mert az ilyen magas frekvenciát csak néhány usec-ig képes a fej írni és utána megint "lengetni kell".

Neked ez nyílván amolyan boszorkány lódítás, mert elaggtál már.

Előzmény: Jahno (165698)
főgóré Creative Commons License 2025.07.21 0 0 165699

ja , bocs

az innerimagesnek szántam 

Előzmény: főgóré (165692)
Jahno Creative Commons License 2025.07.21 0 0 165698

És a jelalakból mi következik? Az, hogy ehhez sem értesz, lódítasz egy nagyot aztán megy a szokásos sommás kijelentés, hogy mindenki hülye aki nem találja meg magának?

Előzmény: exhighand (165697)
exhighand Creative Commons License 2025.07.21 -1 0 165697

Arra sokáig várhatsz, hogy én bizonyítsam amit írok. Egyszer szedd le egy működő HDD fedlapját és nézd meg egy szkópon, az olvasófej milyen jelalakot ad le. Érteni kell hozzá, nem lesz könnyű.

Előzmény: Jahno (165696)
Jahno Creative Commons License 2025.07.21 0 0 165696

Na, hozz hiteles linket ilyen redundáns HDDről.

Előzmény: exhighand (165695)

Ha kedveled azért, ha nem azért nyomj egy lájkot a Fórumért!