A pixel körülbelül 50 éve tartó 2D-s uralmának akár már öt éven belül vége lehet. Brit kutatók ugyanis olyan fejlesztésbe kezdtek, amely szerint a koordinátarendszerbe helyezett színes pöttyöket vektorokkal helyettesíthetik majd a szoftverek. Ha már foglalkoztál valaha számítógépes grafikával, akkor bizonyára te is tudod, hogy jelenleg két alapvető módon mentheted el grafikáidat: bitmapként (rasztergrafikus elemként), vagy vektorként. A bitmap nem más, mint egy hatalmas rács, ahol a pixelek x és y koordinátái, valamint az RGB színkódok határozzák meg a kép kinézetét. A vektorok egy teljesen más állatfajt képviselnek: egy vektorgrafikus kép alapját matematikai egyenletek sora alkotja. Ha bitmapet szeretnél rajzolni, csupán behelyezel egy színes pöttyöt a rácsba, míg egy vektoros alakzatnál meg kell adnod annak magasságát, szélességét, rádiuszát stb.

Kép forrása: http://www.cs.bath.ac.uk/vsv/
Ez a két eljárás teljesen eltér egymástól és egymástól teljesen idegen igényeket elégítenek ki. A vektoros grafikákat, mivel geometriai képletekből állnak, akár a végtelenségig lehet nagyítani – így ez a fajta grafika az ideális illusztrációkhoz, térképekhez, tipográfiához, Flash animációkhoz és így tovább. Minden máshoz pedig ott van a bitmap. Videók, digitális fényképezőgépek képei, mozgóképszerkesztés, számítógépes játékok textúrái – az eltérő formátumok ellenére (JPEG, PNG, GIF, MOV stb.) mind-mind bitmapek.
A pixeles bitmapeknek azonban akadnak problémái: amint növekszik a felbontás, úgy szaporodnak a pixelek is, tehát egyre több tárhelyre van szükség a tároláshoz, illetve egyre számításigényesebb a feldolgozás. A bitmapek ráadásul nem jól nagyíthatóak. A méretcsökkentés még elmegy, de a felbontás növelése mindig ronda lesz. Ráadásul az egyik formátumból a másikba való átalakítás, a mozgóképek frekvenciaváltása (kép/mp) is mindig veszteséges lesz.
Phil Willis és John Patterson, a brit University of Bath egyetem kutatói ezért úgy döntöttek, olyan kódolási eljárást / formátumot fejlesztenek ki, amely a pixeleket vektorokkal helyettesíti. A hagyományos kamera a (mozgó)képeket pixeles bitmapek formájában rögzíti, majd ezeket tömöríti (JPEG, vagy H.264 konténerbe). A Willis és Patterson féle codec, a Vectorized Streaming Video (VSV), ezzel szemben a bitmap képet vektorokra alakítja át. Jelen munkájukat a korábbi VPI (Vectorized Photographic Images) kutatásaikra építik, ami a bitmap képeket tökéletes, „vektorizált” másolatokká alakítja.
Jelenleg még igen kevés információ áll rendelkezésre a VSV-ről, csupán annyit tudni, hogy a kutatók a Root6 Technology-val, egy transzkódolásra szakosodott céggel, valamint a Smoke & Mirrors utómunkálatokkal foglalkozó vállalkozással dolgoznak együtt annak érdekében, hogy piacképessé tegyék konténerüket. A Smoke & Mirrors elmondása szerint az elkövetkezendő 3-6 hónapon belül már lesz működő, bemutatásra alkalmas változata a VSV-nek, amit majd – így a Bath-i egyetem kutatói – a pixel temetése követhet. (Forrás: extremetech.com)
Izgalmasnak tűnik ez a kutatás – vajon, ha bejön a kutatók számítása, milyen jövőbeli fényképezőgépekkel és kamerákkal számolhatunk? Vajon lesz-e még relevanciája a sok megapixeles szenzoroknak, ha tetszőlegesen felskálázható lesz a fénykép? És milyen minőségűek lesznek a videók, ha már nem kell odafigyelni a Full HD felbontásra való leméretezés során alkalmazott módszerre? Mekkora teljesítményű képalkotó processzor kell majd a képalkotó rendszerekbe? Hogy fog átalakulni a képszerkesztő szoftverek világa? Neked mi a véleményed erről? Íme, két link a fejlesztésekkel összefüggően: egyik, másik.





Felhívnám mind az olvasók, mind a cikkírók figyelmét arra, hogy a losless upscaling az egy perpetuum mobile. Még ha a kémfilmekben mást is látunk (végtelen zoom, ugye).
” Ráadásul az egyik formátumból a másikba való átalakítás, a mozgóképek frekvenciaváltása (kép/mp) is mindig veszteséges lesz.”
Nem, ha a tömörítés nem veszteséges. Csak ugye az nagyobb tárhelyet igényel.
@ern0: persze, főleg a fényképeket illetően (azért egy háromszög vektorgrafikája valóban orrvérzésig nagyítható).
@ern0: nekem is ez jutott eszembe. Emiatt az egészet egy szemfényvesztésnek érzem, amire sok pénzt be lehet kasszírozni, hogy aztán a végeredmény ne legyen jó semmire.
Ugye, vektornak csak akkor van értelme, ha már eleve vektoros az anyag, pl. font (amit lehet is nagyítani a végtelenségig, ld- óriásplakát), a fotó viszont nem ilyen. Mindegy, ennél nagyobb baromság is bejárta már a sajtót, illetve most már tényleg kíváncsi lennék, mi a túrót is találtak fel a srácok.
@ern0: 3-6 hónapon belül meglátjuk 😛
@ern0: Így van, ezen nyerítettem, hogy a cikkíró is felteszi a tudálékos kérdést: Lesz-e még relevanciája a sok megapixeles lapkáknak? 😀
Á nem! Egy pixel és a vektorok majd megoldanak mindent! 😀 Hogyne!
@BKV reszelő: jaj, te kis csacsi! nem 1 pixeles szenzorra gondoltam, hanem kell-e majd 36+ mp, vagy elég lesz a 12?
@ern0: úgyvan.
Olyan ez mint a nagyon durván alulexponált kép: ami nem került rögzítésre, azt a csudálatos erősítés sem hozza elő. Ha itt egy adott képtartalom egy adott részét egy darab piros pöttyként rögzítettük, akkor hiába a nagyítás, soha nem fog kiderülni, hogy az tulajdonképpen egy nagyon távoli pöttyös labda.
Baromság, de sok sikert hozzá!
Pontosan, mindegy hogy egy távoli labdát mint pöttyöt nagyítunk, vagy mint egy nagyon rövid vektort, a vége ugyan úgy csak egy nagy piros dolog lesz.
@MLaca: persze, hogy kell a nagyobb szenzor, hisz több részletet tud rögzíteni – a vektorizálás a mozgóképes adattárolásban lehet előnyösebb, mert így talán így bizonyos esetekben kisebb helyen lehet eltárolni az adatot, de nagyobb a számítási igénye – azaz, egyfajta adattömörítésről van szó
@MLaca: Ezt kár volt beírnod. Végképpen elárulja, hogy semmi közöd a témához.
@BKV reszelő: szerintem várjuk ki a végét, hogy mit alkot a két kutató.
Én alapból idegenkedem ezektől a vektoros izéktől. Ha vektoros ábrát látok, első dolgom átalakítani png-re vagy jpg-re.
@maxval, a gondolkodni próbáló birca: nem tudhatjuk, mit csinált a két ipse, azért írtam, várjuk ki a végét. lehet, hogy olyat csináltak, amit még nem látott a világ és tényleg 1 pixelből faragnak kölni dómot 🙂 (bár britek, szóval vigyázni kell velük :D)
@BKV reszelő: „Egy pixel és a vektorok majd megoldanak mindent!” Nem lehetne esetleg FÉL pixelbe betömöríteni a világmindenséget? A másik felét fenntarthatnánk egy szomszédos világmindenségnek, amit a brit tudósok hamarosan felfedeznek.
mi lenne, ha ismernéd a konténer kifejezés jelentését?
ezt már régen feltalálták, úgy hívják, hogy írás, könyv 🙂
az emberi szintű intelligencia átkódolja írássá amit mondani akar, és az emberi szintű intelligencia visszakódolja miközben elolvassa
Ha minden pixelt egy négyzetvektor helyettesít ugyanolyan RGB kóddal, akkor az működhetne. Viszont felbontástól függően sok-nagyon sok (akár tízmillió) objektum kezelését is meg kell oldani.
Most komolyan, a posztoló tényleg fotózással foglalkozik?
„Vajon lesz-e még relevanciája a sok megapixeles szenzoroknak, ha tetszőlegesen felskálázható lesz a fénykép?”
Erre mit lehet mondani? Ha tényleg van valami köze a fényképezéshez, akkor az optikához is. Akkor meg tudnia kéne, mi az a felbontás… A képrögzítés alapelveiről sincs fingja se. Ami nem is lenne baj, csak ne írna marhaságokat.
@nemjogasz: nemtom mi az a felbontás. hogy rögzít képet?
Tessenek megtanulni értelmezni….senki nem azt állította, hogy egy vektoros – vagy vektorizált – kép a nagyítás során részletgazdagabb lesz – csak azt, hogy nem esik szét, nem pixelesedik. Ez pedig alapvető tulajdonsága a vektorgrafikának. Vektor formátumban tárolni pedig gazdaságosabb, mint bitképben – ennél fogva küldözgetni is egyszerűbb és gyorsabb. Abszolút koordináta rendszerben is, de relatívban pláne sokkal kisebb fájlmérettel lehet számolni, mint a legkisebb köré írható négyszög felbontástól függő összes négyzetrácsát leíró formátumoknál.
@Szűcslaci: lelőtted a poént 😀
@tobias2: Majd a poszt toló megoldja ezt is. 😀
@MLaca: Várjuk, de a kutató nem fogja megváltoztatni a fizikát. A nyers kép tartalmazza mindig a legtöbb információt, aztán jönnek a z ilyen vektoros emberek, meg a tömörítő algoritmusok és rontanak rajta. A nyers kép nagyításakor jönnek a rafkós elmosások és más trükkök, de egy bizonyos fokú nagyítás után szétpixelesedik az egész és nulla információt hordoz majd. Ezen semmi nem változtat.
Háát, érdekes elgondolás, de szerintem kár temetni a pixeleket.
Azt kell észrevenni, hogy minden képnek van egy tényleges információtartalma, amit ígyis-úgyis tárolni kell; mindegy, hogy milyen formában. Minél részletgazdagabb a gép, annál több információról van szó, és ez nem feltétlen van szoros kapcsolatban a felbontással. Függ a valóság részletességétől, az optikától, a fényviszonyoktól, meg még ezer más dologtól. Mindenesetre a felbontás is játszik, mivel ez felülről limitál, maximálja az információmenyiséget (kvantál).
Ha nem akarunk több bájtot tárolni, mint amennyi információ ténylegesen a képen van, akkor használhatunk kép/videó tömörítést. Ezek úgy próbálják a tárolandó méretet a valós információhoz közelíteni, hogy közben lehetőleg lényegtelen információt veszítsenek csak el belőle. Ehhez általában valamilyen spéci matematikai reprezentációt választanak senki se higgye, hogy egy JPG fájl magukat a pixeleket tárolja.
Az én szemszögemből nézve a vektoros tárolás csak egy ugyanolyan reprezentáció, mint a többi.
Ráadásul ha a fiúk raszterizált képből indulnak ki, akkor nem is fognak több információt tárolni, mint a pixeles megoldások. Így viszont csak egy N+1-edik képtömörítési/reprezentációs eljárásról van szó, nem többről.
Az egyes képtárolási és képtömörítési eljárások nagyban különbözően viselkednek, amikor „túlzúmolnak” bennük.
Van, amelyik kockás lesz, van, amelyik szimplán homályos. És van, amelyik pöttyös, és olyan is, ahol oda nem illő pontokat és vonalat találunk ilyenkor.
Na, most akkor lesz egy olyan is, ami szerint a világ egyenesekből és polinomiális görbékből áll, tehát túlnagyításkor mindent ilyennek iterál. Ezt az effektet mindenki ismeri, aki játszott már a Quake-kel: közelről a görbe is sokszög, a gömb is háromszögekből áll, stb. Tehát sokra megyünk az akármeddig zúmolhatósággal…
A helyzetet tovább bonyolítja, hogy az ideális képtömörítési eljárás és reprezentációs megoldás erősen tartalomfüggő, és a nem megfelelő eljárás választása katasztrófikus lehet.
Ez Mozart-mű pl. ábrázolható kottaként, szöveges instrukciókkal. Ez nagyon tömör megoldás, egy szintetizátor vissza is tudja alakítani hallható reprezentációra. Ám így nem lenne szükség zongoristákra és karmesterekre… meg művészekre sem.
Ugyanez a helyzet a képeknél is.
A nyers bitmapet semmi nem helyettesítheti, amíg nem találjuk fel a kvantumfényképezőgépet, vagy valami hasonlót. 🙂
Itt inkább arról van szó, hogy hogyan tömörítsük a bitmapet. A fényképezésben használt leggyakoribb tömörítés a jpeg, mely bizony pixelorientált. Amíg a tömörítés veszteségmentes, addig semmi különbség nincs képminőség szempontjából a különböző módszerek között.
De ha veszteségesen tömörítünk, akkor jönnek a problémák. A jpeg a képet négyzetalakú pixelcsoportokra bontja, és azokkal operál, ezért amikor egy jpeg-et szélsőségesen macerálunk, előbb-utóbb bele fogunk ütközni ennek a négyzetes megközelítés hátulütőibe.
A vektoros megközelítés valószínűleg nem előre meghatározott négyzetek mentén fog operálni, hanem a bitmap tartalmától függő tartományokon. A tömörítési eljárás tehát alkalmazkodik a képhez.
A jpeg droidszerűen végigfut a képen és részenként tömörít. A vektoros módszer előbb megnézi a teljes képet, és „intelligensen” (mint a mosóporok 🙂 kidolgozza a megfelelő tömörítési eljárást.
Bizonyára ennek a módszernek is lesznek hátulütői. Kicsit szkeptikus vagyok például az elérhető tömörítési arányokkal kapcsolatban. De majd meglátjuk.
@Szűcslaci: ezen a gazdaságosságon még gondolkozz kicsit.
Ha egy olyan pixel-halmazod van, amiben nincs korreláció a pixelek színei között, akkor a natúr pixel-tárolás a leghatékonyabb. Ha egyszínű, egyforma pixelekről van szó, akkor ez iszonyúan jól tömöríthető (pl. faxoknál). Ha kicsi a kontraszt (pl. generál tájkép), akkor eszerint is jól kompresszálható (jpg).
De ezek mind jobb tömörítést adnak, mint ha vektorizálni kezdenénk.
Ám más a helyzet, ha a kép sok pöttyből áll (pl. csillagászat), geometriai formákból (pl. gépek, bútorok, betűk). Ekkor jobb a vektor. Meg akkor is, ha a kép eleve vektorosan keletkezett (pl. műszaki rajzok).
Ezt mindig alkalmazás-specifikusan kell eldönteni.
A legjobb lenne, ha a fiúk kihagynák a raszterizálást, és eleve vektoros képfelvevőt használnának. De hát így….
Csodát tényleg nem érdemes ettől várni, az alábbi linken látható egy képpár összehasonlítás gyanánt (bitmap- vs. vektornagyítás egy fotó esetében):
http://www.extremetech.com/extreme/143130-vector-vengeance-british-researchers-claim-they-can-kill-the-pixel-within-five-years
Régóta kutatott téma a superresolution, avagy hogyan lehet egy képből kinyerni látszólagosan némileg nagyobb felbontást a saját natív felbontásánál, de ha az egyetlen képen kívül nem áll extra információ rendelkezésre, akkor ezekkel a módszerekkel finoman szólva nagyon mérsékelt eredményeket lehet csak elérni.
Esetleg videónál többet lehet kihozni, mivel ott az egymás után jövő képkockák rendszerint nagyon hasonló tartalommal bírnak, erősen korrelálnak egymással, de ugyanaz az objektum (elég, ha szubpixel nagyságrendben) garantált, hogy kicsit eltolva képeződik le a kamera szenzorára az egymást követő képkockákban. Ezt elvileg ki lehet használni a felbontás effektív megnövelésére, de kérdés, mennyire lehetséges ez mindenféle zavaró műtermékek, artifaktok megjelenése nélkül.
vectormagic.com/home
ez nem ugyanaz? nem értek sokat hozzá, de a fotóknál ugyan nem tökéletes az eredmény (ld jolie kép), de azért megteszi.
vagy nagyon mellé lőttem?
Humbug az egesz. A fenykep jol nagyithato lesz ha vektoros… Hat hogyne. A hianyzo informaciokat meg telepatiaval gyujti be a multbol…
Csodak nincsenek, a kep entropiajat nem lehet novelni.
@Papírzsepi: Így igaz.. de fotó esetében nem beszélhetünk homogén pixelhalmazokról – csak pl. cartoon esetében.
Én fotós/grafikus vagyok és bőven van dolgom hatalmas pixeltömegekkel és nagyon bonyolult vektor grafikákkal is.
Jelenleg a kellően bonyolult vektorgrafika sokkal könnyebben két vállra fekteti a gépet mint a pixelkezelés. Oda lehet RAM-ot fejleszteni, a vektoros dolgokhoz processzor kell…..
Nincs az az erőmű ami egy kellően komplex illusztrátor grafika nem tudna elképesztően lelassítani
Nagyjából kizárt…
Ha jól értem az eredeti felvetést, ez elsősorban egy kódolási eljárás, nem részletgazdagítás, vagy egyéb perpetuum mobile. Szerintem egészségükre, lényegében az összes ma használt tömörítési eljárás függvényapproximációval dolgozik: egy-egy képszelet (tipikusan 16×16 makroblokk) fourier/DCT transzformáltjából elhanyagolják az együtthatók precíz értékeit, és ez lényegében egy függvény (az inverz DCT) együtthatóinak a tárolásával oldja meg a problémát. Szigorúan véve tehát a mai formátumok sem pixeleket tárolnak, azt a codec számolja csak ki a formátumból.
Márpedig ha visszanézünk tetszőleges kodeket, az a monitor kedvéért pixelekké fog alakulni 🙂
Ez a cikk egy baromság.
@flugi_: Valószínűleg így van és a cím vagy csupán újságírói túlzás (az angol nyelvű tudósításokban is így szerepel) vagy pedig ügyes marketingfogás a kutatók részéről. Ami tartalmilag csak annyit takar, hogy a kép/videó továbbítását különböző feldolgozó és megjelenítő eszközök között az általuk kidolgozott vektorreprezentációban képzelik el a jövőben. De ez semmit nem változtat a felvételezés valamint a megjelenítés alapvető paradigmáin, ami továbbra is ugyanúgy pixeles marad.
sokkal több polgárpukkasztó cikkre van szüksége a blogodnak Laci, mer arra gyűlik a nép! 😀
hozzávalók:
– némi tudomány
– fél igazság
– másik fele penetránsan árasszon kamuszagot 😉
– jóslatok
– fűszerként britt kutatók
– és a titkos összetevő, hogy továbbra is vitázni akarjon a nép =)
kihagytam a misztikumot…
örülnék vmi újfajta érzékelőmegoldásnak,
az se baj ha korszakalkotó 😉
de pusztán tárolási algoritmusban nem látok fantáziát.
legutóbb az on2 próbált vektor alapon világot megváltani, még a vp4-5 idején. aztán megvette a google és a vp8-cal kihozta a webm-et, kiderült h silányabb a h264-nél.
szóval elég sokan ráálltak a tárolástechnikai részre ahhoz, hogy kibukjon egy merőben újfajta módszer…
@noss: hehe, na várj, keresek neked valami anyagot a fekete szenzorokról 😛
Hat nem tudom, nezegettem extremetech.com-on levo kepeket, es nekem az jott le, hogy igy ez a cikk nagyon bulvarkacsa.
Kis nagyitasok eseten kvazi ertelmetlen, hiszen tok jo zoom filterek leteznek. Extrem nagyitasok eseten (ahol a kepbol tenyleg csak egy marek pixel marad) szinten nem tul ertelmes, hiszen informaciot nem tud szulni a semmibol, legfeljebb egy kis zajt sporolunk meg, a kockasodast, es az extremetech.com-on levo kep alapjan ez tenyleg lof*sz.
(A kockasodas ugye abbol adodik, hogy a pixelek egy negyzetracs racspontjaiban vett mintak, es sajnos atlosan a racspontok tavolsaga nagyobb, mint a racs elei menten. A tuti mintavetelezes hatszogekbol allo racsot hasznalna, es akkor nagyitas kozben sem kockasodna a kep.)
Ha villamosmernoki modon a kepet kulonbozo frekvenciaju hullamok osszegekent kepzeljuk el, akkor ugye a nagyitasnal elsosorban az a problema, hogy csak veges informaciot tarolunk es a nagyon nagy frekvenciakrol egyszeruen nem tarolunk semmi informaciot (pl. amiknek a hullamhossza kisebb, mint egy pixel). Ahogy nagyitunk, ugy fogynak el eloszor a nagy frekvenciak, majd a kisebbek, vegul semmi sem marad, es egyetlen pixel konstans szine tolti be a kepernyo egeszet. De a nagyitas kozbeni problemak technikailag nem kezelheto reszet nagyreszt a frekvenciak hianya okozza (homalyosodas, reszletek elveszese..).
A hianyzo frekvenciakat egyszeruen nincs honnan potolni (bar mar lattam olyan megoldast, ami megprobalta kvazi kitalalni a rendelkezesre allo alacsonyabb frekvenciakbol a magasabbakat, eleg vicces volt az eredmenye), ezen az sem segit, ha a kepet leiro informaciok vektorosan tarolodnak (vagy akarhogyan mashogyan).
Feluletes atnezes utan en inkabb azt gondolnam, hogy ez egy tomoritesi trukk akar lenni (emlekszik meg valaki a fraktal alapu tomoritesre?), egyszeruen egy meg jobb kodek, kar ezt igy elbulvarositani.
Hát hallod, te szakembernek elég nulla vagy. A vektorgrafikás képformátumokból kismillió van, és elég régiek.
Ha ezt nem tudod, minek blogolsz, szakmailag nulla vagy
a hülye index kitette, mert azok is nullák
@noss: igen, de ha nem hülyeséget írna, hanem okosságot, akkor megosztanám. így a hajára kenheti, hogy idenéztem egyszer vagy kétszer.
egyébként én nem nagyon lennék büszke arra, hogy index kegyenc vagyok, meg, hogy polgárpukkasztó MARHASÁGOkat írogatok, és jön a nép vitázni az oldalamra.
bazdmeg, merjünk nagyot álmodni!
@ern0: „ennél nagyobb baromság is bejárta már a sajtót,”
a pláne az, hogy ez szakállas baromság. vannak, akik soha nem tanulnak
@noss: Szalacsi Sándor életpályamodell!:)
” a bitmap képet vektorokra alakítja át. „
ez az a lépés, ahol ugyebár feltételezések kerülnek bele a képbe, amely feltételezések egyáltalán nem biztos, hogy jogosak. és aztán ezt lehet a végtelenségig nagyítani, de a hipotézist nagyítod, nem a valóságot.
@Brendel Mátyás: júj, sajnálom, hogy szúrja a szemed a blogom! de tényleg!
Ha a teljes képhez mérten pl. a kép sarkában egy 3%-os felület vektorosra van kiszámolva az semmivel nem fog több információt tartalmazni, mint a pixeles.
Nagyítható, na bumm, nagy pacák helyett széles vonalak jönnek fel a nagyítás után. Éljen.
@MLaca: a hatalmas tudásod és intelligenciád, az szúrja a szemem.:)
de láthatyóan kb az összes hozzászólónak. ezt elszalacsiztad, haver
@Brendel Mátyás: ezt el, tesó 😀
@Brendel Mátyás: 😀
Amúgy mióta követem a blogot, Lacza kb 1x lépett ebbe a búlvár dologba és igen könnyen sikerült túllépnem e cikken. Érdemes kicsit visszanézni akár a korábbi dolgokat. Egy botlásér nem temetném (a blogot), te is léptél már kutyaszarba. 🙂
Csöppet föl lett fújva a cikk és sokan rá is kaptak, hogy fitoktassák tudásukat. Persze nem szerettyük a kamut, oké. De nem kell nagyon ráparázni.
Ja és hozzátenném (fitoktatásként 😉 ) hogy leirhatatlanul rühellem az index.hu-t, töviről hegyire. 😐
Ez kellett ide… 😀
@noss:
” te is léptél már kutyaszarba. :)”
1) szoktam elírni dolgokat, akkor javítom
2) ritkábban szoktam tévedni faktuális kérdésekben. ilyen is volt már talán, javítottam. sosem ugattam le az ilyen észrevételeket
3)az én blogjaimnál van egy természetes jelenség, hogy vannak, akik nem értenek egyet vele.
4) ha ezt leszámítjuk, akkora kutyaszarba, hogy az „enyémeim” nagyrészt azt írják, hülyeséget írtam, na ilyen még nem fordult elő.
” Persze nem szerettyük a kamut, oké. De nem kell nagyon ráparázni.”
a blog tulajdonosa pontosan akkor tud véget vetni ennek azzal, hogy például törli, amikor akar. rajta műlik, hogy meddig ütik. meg persze már eléggé le is csengett
„Ja és hozzátenném (fitoktatásként 😉 ) hogy leirhatatlanul rühellem az index.hu-t, töviről hegyire. :|”
OK, fitogtasd (sic!)!:)