Ajjaj, akkor ne erőltesd.
Finnyásaknak ott van még a PVM (Parallel Virtual Machine) és az MPI (Message Passing Interface),
habár ezek nem programozási nyelvek, hanem egy
alapnyelvre (C) épített függvénykönyvtárak.
Ezekkel pl. PC hálózatból lehet "szuper"-számítógépet kerekíteni.
Természetesen vannak tudásalapú megoldások is és olyanok, amelyek ötvözik a tudást és a szimulációt. De a helyzet az, hogy a röntgenkrisztallográfia és az NMR-es szerkezetmeghatározás rohamléptekkel halad előre, úgyhogy mire megoldjuk a folding problémát, addigra már nem lesz mire alkalmazni. Egyesek szerint már most ismert minden olyan szerkezet, aminek a nem túl pici darabjaiból minden más szerkezet felépíthető.
Valószinüleg nem is kell a felgombolyitási problémát teljes általánosságban megoldani, azaz tetszöleges bázisszekvenciára. Úgy nem is nagyon van értelme, mert egy random lánc olyan, mint a takony, rengeteg kb. egyforma minimális energiájú állapota van és tök véletlenszerü, hogy ezek közül melyikben állapodik meg (ha egyáltalán megállapodik és nem lökdösi össze-vissza a hömozgás is). A valódi, használatban levö fehérjék ennél sokkal tökösebbek és eléggé moduláris szerkezetüek. Ha pedig az a cél, hogy tervezhetö legyen a térszerkezet, valószinüleg még ennél is tovább lehet menni, olyan rész-szekvenciákból kell épitkezni, amiknek kontextus-függetlenül is jól meghatározott térszerkezete van. Tehát a teljes probléma-térnek azt a részét érdemes célbavenni, ahol tudunk számolni. Persze ennek körülhatárolása sem triviális.
Az OGR-25ről mit tudtok elmondani? Ha jól tudom ez is valami titkosítás, a pontos matematikai módszer érdekelne. (RSAról már van doksim).
Csak hogy tudjam miben veszek részt, úgy több értelmét látom a dolognak. (Mint pl. 10milliójegyű mersenne-prim keresése).
Linuxra van egy MOSIX nevű cucc, áll egy kernelpatchből + pár utilból. Ez egy cluster megvalósjtás, lehetővé teszi, hogy menet közben transzparensen átmehessenek processzek egyik noderól a másikra, mindezt io-ra és prociterheltségre egyaránt optimalizálva. Redundáns clustert nem tud.
Erdekes, sozval a feherje felgombolyitas problemaja nem egyszeruen egy szetdarabolhato feladat aminek brutforce-szal nekilehet esni... Hmmm, rendkivul kellemetlen.
A szamelmeleti problemaknal ilyen gond nem merult meg fel.
"egyelőre nem várjuk tőle, hogy ez majd univerzálisan megoldja a..."
univerzalisan hasznahato es bizonyito ereju eredmenyeket a megosztott szmitasi modszerrel nem hiszem hogy barhol lehetne.. inkabb tetelcafolatoknal es sejtesfelallitasoknal erdekes.
amugy a feherje folding elvi probelemajara a megoldas lehet, hogy pont a feladat felosztasanak mikenjteben van es a reszfealadatok osszehangolasaban... az a brutal modszer ami egy szekvencialiasn ledaralhato primigazolasnal siman bejon az egy szerteagazobb feladatnal zsakutca.
Alapvetően az a probléma, hogy egy processzor ésszerű idő alatt csak nagyon rövid időtartamot tud szimulálni, mondjuk a felgombolyodás teljes idejének az egymilliomod részét (és akkor még nagyon optimista becslést adtam, rátehetsz még két-három nagyságrendet, és akkor se tévedsz nagyot). A trükk az lenne, hogy ha rengeteg processzoron csináljuk ezt, akkor a nagy számok törvénye alapján lesz olyan processzor, amelynél a szimulált fehérje véletlenül jóval előbbre jut el a felgombolyodásban, mint az átlag, és akkor onnan lehet folytatni. Csak sajnos ez nem ilyen egyszerű, mert nem elsőrendű a kinetikája a folyamatnak, van egy kinetikus gát, és nagyon sok reakcióútvonal lehetséges, tehát hiába zajlott le a kezdeti szakasz gyorsan, nem tudhatjuk, hogy jó irányba ment-e, vagy éppen mellékvágányra került, és akkor a mellékvágányt fogjuk folytatni. Úgyhogy ez egyelőre inkább csak próbálgatás, tapaszalatszerzés jelleggel megy, egyelőre nem várjuk tőle, hogy ez majd univerzálisan megoldja a fehérjék felgombolyításának a problémáját.
ennek erdekessege, hogy a kaoszelmelettel es a sztochasztikus rendszerekkel valo foglalkozas a klimatikus visoznyokkal kapcsolatos kerdesekkel kezdodott... igy ez a terulet szinte trivialisan adodik.
Lecter mester nagy vagy :) kivancsi vagyok, hogy hanyan fognak erdemileg hozzaszolni, talan szolni kene az iformatikai forumokban a szakiknak :)
egyebkent:
Az osztott szamitasokkal foglalkozo tudomany egy olyan tudomany ami a nagy problemak kisseb reszproblemakra valo szetbonatsat azoknak a reszfeladatoknak a fuggetlenul valo megoldasat es a megoldasok integralasat elemzi.
jelen pillanatban a megosztott szamitasi erot kihasznalo projectek az interneten keresztul onkentesen felajanlott kihasznlatlan szmitogep uzemorak felhasznlaast jelentik olyan feladatokra mint peldaul a SETI@home project, tobb millio szamjagyu primszamok keresese, a rakbetegseg es az HIV ellenszerenek keresese vagy eppen kodtores es titkositas erosseg bizonyitas illetve cafolas.
Ezek a projectek olyan problemakon dolgoznak amiknek szamitogepes megoldasat nemregiben pont a szukseges szamitasi ero nagysaga miatt kivitelezhetetlennek tartottak.