tammikuu 09, 2025, 22:25:41 ip

Uutiset:

Iloista kasvatuskautta !!


Tietokoneista

Aloittaja Aji Inferno, heinäkuu 19, 2008, 00:21:20 ap

« edellinen - seuraava »

sorrii

Olis aika "jännään" koneeseen mullakin komponentit käyttämättömänä: olisi parikin Athlon X2 prossua: 5000BE ja 7750BE [muistaakseni];
Se 5000-malli on kiinni poikani vanhassa pelikoneessa, jossa joku halpismallinen MSI'n 790X-sarjan emolevy.
Toinen emo on joku mATX-perussetti integroidulla grafiikalla, mutta tuolla paremmalla professorilla: 7000-sarjan Athlonit on todellisuudessa Phenomeita, joissa on poistettu ytimiä käytöstä: Hyvällä säkällä -ja emolla- voisi saada lisäcoretkin käyttöön ... ehkä.
Jäähyksi hyväksi todettu Skyhe Ninja, joka parhaimmassa tapauksessa toimisi vaikka passiivisena ...
Muisteja olisi 4kpl 1GB DDR2 1066MHz, eli 4GB ihan kivan nopeaa muistia ...
Vanhoja kiintolevyjä ...  :o ... niitä on ..
Sitten olisi vanha kotelo: Legendaarinen Antec Sonata Piano Black ... se ON hieno ja hiljainen. Tuloilmalle ei ole isoa tuuletinpaikkaa, mutta eiköhäm me jotain fiksata vaikka pohjan kautta, jos tarvii ...
Virtalähdekin taisi olla siinä peruskoneessa Antec Truepower Trio 430W joka on sarjassaan kait ihan hyvä ..

Näyttikseksi joko vanha GTX8800 tai RMA'sta bumerangina palautettu HD7950  ??? ... mahtaisiko olla mitään järkeä jälkimmäisessä?!?
Alunperin on pitänyt rakennella leikkikalukone, johon asentaisin wanhan kunnon WinXP'n ja jossa siis toimisivat vanhat tutut CAD-ohjelmat, joita ei näissä uudemmissa oikein saa enää pelittämään. ArchiCAD 8.1 esim. on hyvinkin pystyvä mallinnusohjelma paitsi talojen piirtelyyn, niin myös moneen muuhun. Sen opiskelijaversiot toimivat ihan virallisen tapaan: käyttöehdoissa vain on kohta, ettei saa käyttää kaupallisiin tarkoituksiin. Uudempiakin olisi mulla käytössä, ja uudella koneella toki rajusti vielä tehokkaampia, mutta ne ovat vuoden lisenssillä ja käyttöoikeutta tarkistellaan vähän väliä. Käytettävyys mun mielestäni noilla uusilla on myös paljon huonompi ...

Tuo vanha GTX880 320MB on "uunitettu" eli kokeilin häkääpelkäämättömänä pellepelottomana foorumeilta kuulemaani kikkaa elvyttää vanha pimahtanut GPU. Riisuin jäähdyttimen ja kaikki irroitettavat muoviosat: Sitten paistelin 200 asteen uunissa muistaaksni 10min. Se toimi oikeesti!!! [Eri juttu on sitten se kuinka kauan tuollainen toimii: kuulemma voi toimia vuosiakin - huonolla säkällä pari päivää ...]

HD 7950 TwinFrozr on outletista ostettu -arvatenkin kertaalleen palautettu- kortti, kuitenkin 2v takuulla. Siinä tunnettu pikkuvika, että huudattaa tuulettimia vähän liikaa, ja joka vika on korjattasvissa, jos uskaltaa vähän näyttää puukkoa. Takuuosasto Saksassa totesi sen toimivaksi, kun en osannut vikaa kait selittää oikein [saksaksi!]. Nyt varmaan korjaan sen itse ja vaihdan samantien paremmat tahnat jäähyyn. Tällä varakoneella voin sitä sitten ainakin kokeilla, mikä itsessään on aika mielenkiintoista. Riittäisiköhän 430W poweri  :-X

Näin eilen yhdellä kirpparilla muuten myös mielenkiintoisen näyttiksen: Quadro FX1400 [7€ - myyjällä viikon toimivuustakuu]
Saattaisi toimia sekin tuossa koneessa. Ja siihenkin löytyisi jäähyksi AC'n iso lämpöputkisäleikköhäkkyrä joka riittäsi jopa passiivisena ...
En muuten ostanut sitä näyttistä, kun ei oikein ole vieläkään käsitystä minkä tehoinen peli se lopulta on... ei vaan nyj jaksa ..  :-[ :(
ø¤º°`°º¤ø,¸¸,ø¤º°`Fuck Google!`°º¤ø,¸¸,ø¤º°`°º¤øø¤º°`Ask Me!°º¤ø,¸¸,ø¤º°``°º¤ø,¸¸,ø¤º°``°º¤ø,¸¸,ø¤º°`

Aji Inferno

Lainaus käyttäjältä: chipe - syyskuu 25, 2015, 23:42:23 ip
Itselläni hyvin harvoin 4 ydintä (i7) jyystää 100% tehoilla. Yleensä jokin muu (GPU, levyt, muisti, softan säikeistyskyvyt) tulee ensin rajoitteeksi.

Olennaista on joka tapauksessa se perussääntö että kahden ytimen hyödyntäminen vaatii kaksi säiettä mutta käänteinen ei päde. Eli siis käytännössä 4 ydintä voi ihan hyvin ajaa vaikka 100 säiettä, koska ne voivat jatkuvasti hyppiä tehtävästä toiseen. 4 ydintä ei siis tukehdu useampiin tehtäviin yhtään sen helpommin kuin 6:kaan, jos niiden yhteenlaskettu teho on vähintään sama.

Samasta syystä 1 tuplatehoinen ydin voittaa käytännössä aina 2 puolta tehottomampaa, koska se voi tehdä niiden kahden tehtävät vaikka peräkkäin samassa ajassa (ja käytännössä se hyppii niiden välillä jatkuvasti ripeästi). Tehtävästä toiseen hyppimisen tehohukka on hyvin marginaalinen, etenkin verrattuna kaikkeen siihen ylimääräiseen työhön mitä yhden tehtävän jakamisesta kahdelle seuraa. Ja käytännössä harvaa tehtävää pystyy jakamaan täydellisesti tasan molemmille vaan yleensä toinen joutuu aina odottelemaan toista kun tuloksia yhdistellään, ne tarvitsevat pääsyä jaettuun resurssiin jne.

Silloin (harvoin) kun kaiken prosessoritehon pystyy oikeasti hyödyntämään ja kuorman pystyy jakamaan optimaalisesti, ydinten yhteenlaskettu kokonaisteho ratkaisee. Mutta nuo tilanteet on tosiaan harvinaisia normikäyttäjillä ja rajoittuvat lähinnä erityissovelluksiin. Suurimman osan ajasta ratkaisevampaa on miten ripeästi yksi ydin suorittaa sen yhden sille annetun tehtävän, johon ei ole vaivauduttu säikeistystä edes rakentamaan.

Ja mobiilipuolella vähintään yhtä ratkaisevaa kuinka kauan mikään ydin pystyy oikeasti hyödyntämään täyttä tehoa ennenkuin lämpörajat paukkuu. Tämän hetken nopeimmilla kännyprossuilla se aika ei ole pitkä.


Tyyppitilanne tuosta "tukehtumisesta" on vaikkapa se, että pelaan uusinta Civilizationia (joka useimpien uusien pelien lailla tukee säikeistystä erittäin hyvin) kaikki ytimet "tapissa" (etenkin loppupelissä aivan tavallinen tilanne). Äkkiä ajastettu varmuuskopiointiohjelmani päättääkin aloittaa työnsä. Olen säätänyt sen pakkaamaan backupit voimakkaasti - mikä jo itsessään kuormittaa kaikki kuusi CPU-ydintäni 70..100% loadiin. Neliydinkoneella pelaaminen muuttuu äkkiä varsin nykiväksi ja odottelutauot sietämättömän pitkiksi. Kuusiytimisen 50% lisälaskentateho tasaa tilannetta juuri niin paljon, ettei pelikokemus heikkene liikaa, mutta samalla varmuuskopiointi, virustutkat, Facebookit yms pyörivät kunnolla taustalla. Noita "supermoniajotilanteita" on omassa käytössäni kaiken aikaa. Jo pelkkä virusskanneri voi taustalla toimiessaan (esim. avatessaan pakattuja tiedostoja) helposti ottaa yhden ytimen kokonaan itselleen.

chipe

Lainaus käyttäjältä: Aji Inferno - syyskuu 27, 2015, 15:03:49 ip
Tyyppitilanne tuosta "tukehtumisesta" on vaikkapa se, että pelaan uusinta Civilizationia (joka useimpien uusien pelien lailla tukee säikeistystä erittäin hyvin) kaikki ytimet "tapissa" (etenkin loppupelissä aivan tavallinen tilanne). Äkkiä ajastettu varmuuskopiointiohjelmani päättääkin aloittaa työnsä. Olen säätänyt sen pakkaamaan backupit voimakkaasti - mikä jo itsessään kuormittaa kaikki kuusi CPU-ydintäni 70..100% loadiin. Neliydinkoneella pelaaminen muuttuu äkkiä varsin nykiväksi ja odottelutauot sietämättömän pitkiksi. Kuusiytimisen 50% lisälaskentateho tasaa tilannetta juuri niin paljon, ettei pelikokemus heikkene liikaa, mutta samalla varmuuskopiointi, virustutkat, Facebookit yms pyörivät kunnolla taustalla. Noita "supermoniajotilanteita" on omassa käytössäni kaiken aikaa. Jo pelkkä virusskanneri voi taustalla toimiessaan (esim. avatessaan pakattuja tiedostoja) helposti ottaa yhden ytimen kokonaan itselleen.


Oleellista tuossa ei ole kuitenkaan se montako niitä ytimiä on vaan mikä se yhteisteho on. Jos se loppuu niin nyykähtää, ihan riippumatta ytimien määrästä. Ja toisaalta backupit ja virusskanneri saattaa aiheuttaa pätkimistä ihan muista syistä, kun noilla levyjä rassaavilla operaatioilla on tapana haitata systeemin toimintaa muutoin. Ja virusskannereilla nyt on kyky haitata toimintaa hyvinkin monin tavoin.

Nykykäyttiksissä moniajo toimii niin että jos meillä on verrokkeina yhteistehoiltaan vastaavat 4-ydin ja 6-ydin, eli 4-ytimisen yksittäisen ytimen tehot on 1,5 kertaiset, niin silloin harvoin kun kaikille ytimille on tarjolla jatkuvaa kuormaa nuo ovat tasoissa, ja kaikissa muissa tilanteissa (tyyliin 99% ajasta) 4-ytiminen voittaa.

Jos samaan aikaan suoritettavia tehtäviä on 4, niin silloin tuollainen 4-ydin on 1,5 kertaa nopeampi, kun 6-ytimisellä ytimet jää reserviin eli niistä ei ole mitään iloa. 5 samanaikaisella tehtävällä 4-ydin voittaa edelleen selvästi kun 6-ytimisellä jää 1/6 tehoista hyödyntämättä. 6-tehtävällä ja siitä eteenpäin nuo ovat samoissa jos pystyvät jyystämään koko ajan eteenpäin täydellä teholla, joka on harvinaista.

Ytimien määrä on tuosta syystä vähän vastaava markkinointinumero kun kellotaajuudet. Isompi on selvästi parempi vaan jos prossut ovat muilta osin samat. Muutoin sitä parempi mitä vähäisemmillä ytimillä ja pienemmillä kelloilla sama teho saavutetaan.

chipe

Lainaus käyttäjältä: Aji Inferno - syyskuu 23, 2015, 21:46:12 ip
AMD:n uusi Zen-arkkitehtuuri tulee ensi vuonna, joten itse odotan siihen saakka ja päivitän sitten siihen.


Kannattaa varautua mahdollisesti pidempään odotukseen, koska viimeisimpien huhujen mukaan Zen tulee aikaisintaan Q4/2016 tai voi lipsahtaa 2017 puolellekin:

http://www.extremetech.com/extreme/214568-jim-keller-amds-chief-cpu-architect-leaves-the-company

Ja kuten tuossa kerrotaan niin AMD:n CPU-puolen pääarkkitehti tosiaan otti ja lähti juuri firmasta. Heppu vastasi mm. Zenin kehityksestä ja oli yleensä ottaen hyvinkin arvostettu ja hyvin oleellisena pidetty tekijä AMD:n menestykselle. Syitä lähtöön ei ole kerrottu mutta harvemmin se on kovin positiivinen signaali jos pääarkkitehti lähtee ennenkuin pahasti myöhässä oleva työnsä tulos ehtii edes markkinoille.

Aji Inferno

No, aika näyttää. Siihen asti odotellaan zeniläisellä kärsivällisyydellä, koska nykyisessäkin koneessa on vähintään tarpeeksi tehoja kaikkeen. :) 

Rohkenisin vielä olla hiukan eri mieltä tuosta ytimien merkityksen matematiikasta. Jos ns. yhteenlaskettu teho on kaiken mittarina, silloinhan perinteinen 1-ydinkone pesisi säikeistetyt hirmut mennen tullen tarpeeksi isolla kellotaajuudella tms. Niin olisikin siinä teoreettisessa tilanteessa, missä pelattaisiin vanhanaikaisesti koodattua, säikeistämätöntä peliä, eikä taustalla olisi mitään merkittäviä taustaohjelmia häiritsemässä. Noin vain ei käytännössä ole enää koskaan. Siispä katse dualcoreihin, kuten Intelin huokealle, sikana ylikellottuvaan Pentiumiin. Vaikka sen virittäisi yli viiteen gigahertsiin, se ei toimisi kunnolla esim. itselläni, koska käytän tietokonetta kaiken aikaa raskaassa moniajotilanteessa. AMD kutsui tätä joskus "supertaskingiksi". Auki on käytännöllisesti aina Firefox 4..6 ikkunalla, Chrome (josta katselen usein YLEn kanavia muun puuhastelun ohessa), sähköpostiohjelma, Word 2016, iTunes, Photoshop CC, jokin peli (esim. Football Manager 2015), jne. Samalla kone saattaa tehdä backupia, tarkistaa viruksia, ja siihen malliin. Tällöin muistia on käytössä siinä 8 gigan paikkeilla tai ylikin, ja laite joutuu jatkuvasti vaihtamaan "mielenkiinnon kohteitaan" jakaessaan kuuden CPU-yksikön tehoja kaikelle tuolle hullunmyllylle...

Yksi Windowsin piirre on se, että sovellukset voivat varata jonkin tietyn CPU-ytimen enemmän tai vähemmän "omakseen". Tämä siksi, että mm. vielä Vistassa käytetty vanhempi metodi, jossa käyttis "arpoi" kaiken aikaa suoritinten välillä sitä, minne tietty ohjelmanpätkä milloinkin lähetetään laskettavaksi, aiheutti monissa prosessoreissa selvää tehohävikkiä (tuo jatkuva hyppely ytimestä toiseen vei aina aikaa). Nykyään ytimien annetaan jatkaa saman ohjelmakoodin kanssa paljon pidempiä aikoja, tai joskus jopa yksinoikeudella. Tämä näkyy monissa peleissä esim. siinä, että ne saattavat kuormittaa vain ytimiä 1-4, eivät koskaan ytimiä 5-6. Nämä jälkimmäiset sitten taas puolestaan ottavat työtaakan silloin, kun vaikka käynnistän uuden ohjelman, katselen netistä videoita pelin ohessa (hitaissa strategiapeleissä tavallista) ja jos vaikka virustutka innostuu käynnistymään täystarkastukseen. Tällaisessa moniajotilanteessa esim. tehokkainkin kaksiydinprosu tulisi hulluksi, sillä sen palveluksia pyydettäisiin liian monelta taholta samanaikaisesti - ja juuri silloin nuo prosessinvaihtoviiveet nostavat ruman päänsä. Windows 10 on entistäkin optimoidumpi tällaiseen "supertaskingiin", mikä näkyy hyvin resurssinhallintaa seuratessa.

En väheksy yksittäisten ytimien tehon merkitystä. Mutta kun esim. tässä sen yksittäisenkin kellotaajuus on 3.9 GHz, todella harvassa ovat tilanteet, joissa tämä ei sillä pärjäisi. Etenkin kun tämän Phenom II:n IPC on selvästi parempi kuin uudempien FX-seuraajiensa. 6x3.9 GHz tuottaakin sitten jo ihan hyvät kokonaistehot nykymittarillakin. Sinänsä, loppukädessä vain sillä on merkitystä, tuntuuko kone ripeältä arjen toimissa, vai alkaako nikotella tai viivytellä. Enintään nelisen vuotta vanha 4..8-ydinprosu (3+ GHz), vähintään 8 gigan keskusmuisti, kelvollinen SSD käynnistyslevyksi + omiin tarpeisiin sopiva näytöohjain = resepti varsin sutjakkaan Windows 10 -kokemukseen. Erikoistarpeisiin sitten on omat, kalliit erikoiskoneensa. :)

chipe

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 03:00:23 ap
Rohkenisin vielä olla hiukan eri mieltä tuosta ytimien merkityksen matematiikasta. Jos ns. yhteenlaskettu teho on kaiken mittarina, silloinhan perinteinen 1-ydinkone pesisi säikeistetyt hirmut mennen tullen tarpeeksi isolla kellotaajuudella tms.


Niin se pesisikin, mutta yhden riittävän tehokkaan ytimen rakentamisessa tuli rajat vastaan, ja juuri siksi noita multi-coreja on lähdetty tekemään pakollisena kompromissina.

Tilannetta on selitelty hyvin esim. täällä. Tuolla mm. Qualcommin VP:n kommentti kysymykseen koska tekevät 8-ytimisiä prossuja kuten kilpailijansa:

Lainaus
it's not about cores. When you can't engineer a product that meets the consumers' expectations, maybe that's when you resort to simply throwing cores together that is the equivalent of throwing spaghetti against the wall and seeing what sticks. That's a dumb way to do it, and I think our engineers aren't dumb."


Mobiilipuolellahan tuo keskustelu ja markkinointi ytimien määrästä käy tällä hetkellä sitäkin kiivaampana ja juurikin Qualcomm on saanut aika paljon negatiivista pr:ää viimeisimmän 4+4 ytimisen prossunsa ylikuumenemisesta.

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 03:00:23 ap
Niin olisikin siinä teoreettisessa tilanteessa, missä pelattaisiin vanhanaikaisesti koodattua, säikeistämätöntä peliä, eikä taustalla olisi mitään merkittäviä taustaohjelmia häiritsemässä. Noin vain ei käytännössä ole enää koskaan. Siispä katse dualcoreihin, kuten Intelin huokealle, sikana ylikellottuvaan Pentiumiin. Vaikka sen virittäisi yli viiteen gigahertsiin, se ei toimisi kunnolla esim. itselläni, koska käytän tietokonetta kaiken aikaa raskaassa moniajotilanteessa.


Kokonaisteholtaan nopeampi yksiytiminen voittaisi vastaavat moniytimiset säikeistyksistä riippumatta mutta käytännössä kehitys on mennyt niin että tehokkaimpien yksiytimisten tehot eivät vastaa kaksiytimisten yhteistehoa jne. Eli useimmiten moniytiminen on nopeampi koska sen yhteenlaskettu teho on yksinkertaisesti suurempi. Kuten ylläolevassa linkissä todetaan:

Lainaus
In an ideal world which would not be regulated by the laws of physics as we know them, an infinitely fast single-core processor connected to infinitely fast storage and memory would be ideal. It fits much better with the way "human" software engineers naturally think (linear vs. parallel) and it would accelerate every single software that you throw at it.


Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 03:00:23 ap
AMD kutsui tätä joskus "supertaskingiksi". Auki on käytännöllisesti aina Firefox 4..6 ikkunalla, Chrome (josta katselen usein YLEn kanavia muun puuhastelun ohessa), sähköpostiohjelma, Word 2016, iTunes, Photoshop CC, jokin peli (esim. Football Manager 2015), jne. Samalla kone saattaa tehdä backupia, tarkistaa viruksia, ja siihen malliin. Tällöin muistia on käytössä siinä 8 gigan paikkeilla tai ylikin, ja laite joutuu jatkuvasti vaihtamaan "mielenkiinnon kohteitaan" jakaessaan kuuden CPU-yksikön tehoja kaikelle tuolle hullunmyllylle...

Yksi Windowsin piirre on se, että sovellukset voivat varata jonkin tietyn CPU-ytimen enemmän tai vähemmän "omakseen". Tämä siksi, että mm. vielä Vistassa käytetty vanhempi metodi, jossa käyttis "arpoi" kaiken aikaa suoritinten välillä sitä, minne tietty ohjelmanpätkä milloinkin lähetetään laskettavaksi, aiheutti monissa prosessoreissa selvää tehohävikkiä (tuo jatkuva hyppely ytimestä toiseen vei aina aikaa). Nykyään ytimien annetaan jatkaa saman ohjelmakoodin kanssa paljon pidempiä aikoja, tai joskus jopa yksinoikeudella. Tämä näkyy monissa peleissä esim. siinä, että ne saattavat kuormittaa vain ytimiä 1-4, eivät koskaan ytimiä 5-6. Nämä jälkimmäiset sitten taas puolestaan ottavat työtaakan silloin, kun vaikka käynnistän uuden ohjelman, katselen netistä videoita pelin ohessa (hitaissa strategiapeleissä tavallista) ja jos vaikka virustutka innostuu käynnistymään täystarkastukseen. Tällaisessa moniajotilanteessa esim. tehokkainkin kaksiydinprosu tulisi hulluksi, sillä sen palveluksia pyydettäisiin liian monelta taholta samanaikaisesti - ja juuri silloin nuo prosessinvaihtoviiveet nostavat ruman päänsä. Windows 10 on entistäkin optimoidumpi tällaiseen "supertaskingiin", mikä näkyy hyvin resurssinhallintaa seuratessa.


Windows on perinteisesti ollut aika paljon Linuxia perässä säikeistyksen toteutuksessa mutta nykyisin nuo taitavat toimia jo ihan järkevästi. Ytimiä voi tosiaan varata ja säikeillä voi olla erilaisia prioriteetteja, mutta noissakin tilanteissa etu on paremminkin pienemmän ydinmäärän puolella (jos siis yhteisteho olisi sama). Jos esim. joku säie pitäisi suorittaa korkeammalla prioriteetilla muiden kustannuksella, niin sehän tarkoittaa juurikin sitä, että siitä tehtävästä pitäisi suoriutua mahdollisimman nopeasti, jolloin sitä parempi mitä nopeampi se yksi ydin on.

Asiaa on varmaan selkein hahmottaa miettimällä kuinka usein tilanne on ihan käytännössä sellainen että samanaikaisesti suoritettavien tehtävien määrä suosisi esim. juuri 6-ytimistä prosessoria verrattuna yhteistehoiltaan vastaavaan 4-ytimiseen. Jos ajatellaan noita mainitsemiasi ohjelmia, niin hyvin monet niistä ovat sellaisia että ne kuormittavat prosessoria vain satunnaisesti, ja toisaalta riippuvat usein muista jaetuista resursseista, kuten levyistä ja muistista. Käytännössä normitilanteessa Windowsissa on pörräämässä kymmenittäin vuorottelevia säikeitä, jotka rassaa vaihtelevissa määrin prossuja ja toisiaan muiden jaettujen resurssien kautta. Useimmiten kun noita käynnistelee riittävästi, niin ensimmäisenä loppuu fyysinen muisti, joka johtaa swappailuun ja sitä kautta levyn raksutteluun, ja siinä kohtaa ytimet on aika toissijaisia.

Mutta tosiaan yleensä ottaen niitä prosesseja on siellä kymmenittäin eli olipa niitä ytimiä 4 tai 6, niiden välillä kuitenkin vaihdellaan ihan vastaavasti tehtäviä. Eikä kaksiytiminen noista hulluksi tule. Esim. webbiservereissä perustoimintamalli on sellainen, että kutakin webistä tullutta pyyntöä kohti käynnistetään yksi sitä palveleva säie ja noita ajellaan ihan rutiininomaisesti samanaikaisesti sadoittain tai jopa tuhansittain pariytimisillä prossuilla. Prosessinvaihtoviiveet on suhteessa kaikkeen muuhun niin pieniä, että sillä ei ole juurikaan väliä montako niitä fyysisiä ytimiä on, jos säikeitä pörrää vaikka 200. Käytännössä yksittäinen webbiserveripyyntö koostuu joukosta peräkkäisiä tehtäviä, joita ei voi pyynnön tasolla säikeistää, ja yleensä yksittäinen pyyntö joutuu jossain vaiheessa odottamaan jotain muuta resurssia kuten tietokantaa edetäkseen. Silloinkin ihan vastaavasti korostuu pienemmän ydinmäärän etu, kun säikeet eivät kuitenkaan pääse koko ajan etenemään täydellä teholla, niin mitä pienemmälle ydinmäärälle tehtäviä jaetaan, sitä todennäköisempää on että kaikki ytimet saadaan pidettyä kiireisinä.

Ja kun nyt käytännössä verrataan 6-ytimisiä AMD:n prossuja ja 4-ytimisiä Inteleitä niin pitää tietysti muistaa että nuo 4-ytimiset näkyy käyttiksen tasolle 8-ytimisinä, eli vaikka samanaikaisten "fyysisten" säikeitten määrä olisikin oleellista niin AMD:llä ei ole etulyöntiasemaa. Käsittääkseni tuo Intelin hyperthreading ja vastaava turbo boost kytkeytyy yksittäisen ytimen tasolla niin että 4-ydinprossu voi käytännössä toimia 4,5,6,7 tai 8 ytimisenä (ydinten tehot vaihtelevat) eli siinäkin mielessä noilla on etulyöntiasema jos tilanne olisi tietylle säiemäärälle optimoitu. Zenissähän on kaiketi käytössä vastaava malli ja ensimmäiset markkinoille tulevat ovat ilmeisesti 4-ytimisiä hyperthreadingiä vastaavalla ytimenjakomahdollisuudella.

Aji Inferno

Zenistä oli taas vaihteeksi uutta tietoa mm. Muropaketissa. Oman ilmoituksensa mukaan laittavat siihen maksimissaan 8 ydintä HT:ta muistuttavalla toiminnallisuudella, mikä näkyisikin sitten Windowsille 16 ytimenä... Siinä alkaa resurssinvalvontaikkunakin tulla pieneksi, jos noin todella tekevät. :D  Senpuoleen, Intelillähän i7:t tosiaan näkyvät 8 ytimenä (vaikkei totuus ihan se olekaan), mutta ymmärtääkseni useimmat (ellei kaikki?) i5:t ovat aitoja neliydinsiruja, eivät enempää eivätkä vähempää.

Näistä teoreettisista asioista voitaisiin täällä kirjoittaa puolesta tai vastaan loputtomiin. Samoin tuolle ikiaikaiselle "taistolle" eri leirien välillä ei ole löytynyt yksiselitteistä voittajaa - kaikki kun riippuu niin paljon käyttötarkoituksesta ja -tavoista. Muistan kuitenkin hyvin päivitykseni 4-ytimisestä Phenom II:sta nykyiseen 6-ytimiseen. Suurin piirtein samoilla kellotaajuuksilla. Kyllä tuo päivitys tuotti omassa käytössäni aivan ratkaisevan eron, ja esim. käyttämäni musastudio-ohjelmat ja videoeditorit tykkäsivät lisäytimistä aivan hulluna. :)  Kuten jenkeissä sanovat: "your mileage may vary". Eri ihmisillä on näistä erilaiset kokemukset. Omani on vain yksi esimerkki, ja suhteellisen harvat kaiketi käyttävät laillani niin paljon raskaita ohjelmia samanaikaisesti. En itsekään, kun asiaa ajattelen, tehnyt sitä vielä neliydinaikana. Mikä kaikki sitten asiaan vaikuttikin, kuusiytiminen sai aikaan tietyn mielenrauhan: "Haittaako äänitystyötä, jos Chrome on taustalla auki kymmenen sivun kera? Ennen haittasi, nyt ei."

Hassua, muuten, miten koneista saadaan turhauttavan hitaita ihan riippumatta siitä, minkä prosessorin ne ovat syöneet. Nykyisen ja edellisen työpaikkani läppärit sisälsivät Intelin i5:n. Neljä ydintä ihan kohtuullisilla kellotaajuuksilla. Mutta suorituskyky jostain syystä aivan täyttä paskaa, vaikka noita miten yrittäisi viritellä. Vehkeissä lienee säästelty muissa komponenteissa: ehkä hidasta muistia, kiintolevyt varmasti hitaita, jne. Silti ostaja maksaa i5-logosta odottaen kai jotain ihan muuta kuin tahmailua. Sitten taas jo nelisen vuotta vanha Macbook Pro:ni on vanhalla i7:llään yllättävänkin ripeä. 8 ydintä siis Windowsin mielestä käytössä. Benchmarkkasin tuota joskus piruuttani käytännön ohjelmilla (esim. Studio One musasekvensseri, joka sama myös PC:ssäni). 6-ytiminen pöytäkoneeni oli kaikissa kokeissani enemmän tai vähemmän nopeampi (molemmissa muuten SSD:t ja tarpeeksi muistia), mutta ero ei ollut mitenkään järisyttävä. Etenkin läppäriksi hyvä suoritus. Mitä tästä "opitaan". Hyvän koneen voi koota miltei mistä tahansa kelvollisista komponenteista, mutta niin myös huonon tietokoneen. ;)

chipe

syyskuu 28, 2015, 14:05:00 ip #1827 Viimeisin muokkaus: syyskuu 28, 2015, 14:06:56 ip käyttäjältä chipe
Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 13:30:21 ip
Zenistä oli taas vaihteeksi uutta tietoa mm. Muropaketissa. Oman ilmoituksensa mukaan laittavat siihen maksimissaan 8 ydintä HT:ta muistuttavalla toiminnallisuudella, mikä näkyisikin sitten Windowsille 16 ytimenä... Siinä alkaa resurssinvalvontaikkunakin tulla pieneksi, jos noin todella tekevät. :D  Senpuoleen, Intelillähän i7:t tosiaan näkyvät 8 ytimenä (vaikkei totuus ihan se olekaan), mutta ymmärtääkseni useimmat (ellei kaikki?) i5:t ovat aitoja neliydinsiruja, eivät enempää eivätkä vähempää.


Taitaa tosiaan olla niin että i5:ssä ei yleensä ole hyper-threadingiä mutta i7:ssa on kait kaikissa. Käyttiksen kannalta ne 8 hyperthreading-ydintä kuitenkin toimivat aivan kuten erilliset ytimet. Eli jos jostain syystä olisi välttämätöntä jakaa tehtävät kahdeksalle, niin tuossa ei ole siltä kantilta mitään eroa oikeisiin erillisiin ytimiin. Käytännössä ne jakavat osasia niin että joutuvat osan ajasta odottamaan toista puoliskoaan, jos se on varannut jaetun osasen, mutta samaan malliin se toimii ihan oikeilla erillisillä ytimilläkin. Nekin joutuvat ajoittain esim. odottamaan pääsyä jaettuun muistiin. Se vain vaihtelee mitkä osat on jaettuja. Sinänsä Windows kyllä ymmärtää hyperthreadingin ominaispiirteet ja optimoi säikeistystä myös ne huomioonottaen.

Täällä muuten kuva jonkun poloisen resurssienhallinnasta, kun ongelmana on että työasemassa on 2x 18-ytimisiä Xeoneita, jotka näkyy resurssienhallinnassa *vain* 36-ytimisinä kun pitäisi näkyä 72 ydintä...

https://www.gamerswithjobs.com/node/1295491

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 13:30:21 ip
Muistan kuitenkin hyvin päivitykseni 4-ytimisestä Phenom II:sta nykyiseen 6-ytimiseen. Suurin piirtein samoilla kellotaajuuksilla. Kyllä tuo päivitys tuotti omassa käytössäni aivan ratkaisevan eron, ja esim. käyttämäni musastudio-ohjelmat ja videoeditorit tykkäsivät lisäytimistä aivan hulluna. :) 


Jos noissa oli vastaavat ytimet eli kellotaajuudet olivat vertailukelpoiset niin eikös tuossa nimenomaan nostettu kokonaistehoa 50% eikä vain ydinten määrää?

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 13:30:21 ip
Hassua, muuten, miten koneista saadaan turhauttavan hitaita ihan riippumatta siitä, minkä prosessorin ne ovat syöneet. Nykyisen ja edellisen työpaikkani läppärit sisälsivät Intelin i5:n. Neljä ydintä ihan kohtuullisilla kellotaajuuksilla. Mutta suorituskyky jostain syystä aivan täyttä paskaa, vaikka noita miten yrittäisi viritellä. Vehkeissä lienee säästelty muissa komponenteissa: ehkä hidasta muistia, kiintolevyt varmasti hitaita, jne. Silti ostaja maksaa i5-logosta odottaen kai jotain ihan muuta kuin tahmailua. Sitten taas jo nelisen vuotta vanha Macbook Pro:ni on vanhalla i7:llään yllättävänkin ripeä. 8 ydintä siis Windowsin mielestä käytössä. Benchmarkkasin tuota joskus piruuttani käytännön ohjelmilla (esim. Studio One musasekvensseri, joka sama myös PC:ssäni). 6-ytiminen pöytäkoneeni oli kaikissa kokeissani enemmän tai vähemmän nopeampi (molemmissa muuten SSD:t ja tarpeeksi muistia), mutta ero ei ollut mitenkään järisyttävä. Etenkin läppäriksi hyvä suoritus. Mitä tästä "opitaan". Hyvän koneen voi koota miltei mistä tahansa kelvollisista komponenteista, mutta niin myös huonon tietokoneen. ;)


Useimmiten tosiaan se pullonkaula on nykykoneissa jossain muualla kun prosessorissa. Muistin määrää kannattaa yleensä epäillä ensimmäisenä syylliseksi. Esim. Chromessa jos availee kymmenittäin välilehtiä niin yleensä ne syövät hyvin vähän tehoa siellä taustalla mutta muistia kyllä palaa. Webbisivuissahan yleensä eniten tehoa syö näytön päivitykset ja kun välilehdet on taustalla niitä ei suoriteta.

Toinen mielenkiintoinen ilmiö on miten nykykoneissa samojen perusjuttujen tekeminen ei tunnu juurikaan nopeutuvan suhteessa siihen mitä se oli joskus ennen muinoin. Se usein johtuu siitä että kun tehoa on käytettävissä enemmän niin softia vaivaudutaan optimoimaan yhä vähemmän ja samalla niihin lisätään ylimääräistä turhaa kuormittavaa höttöä kun kerran varaa on.

Aji Inferno

Hyperthreadingissa muuten on musapiireissä pahamaineinen kaiku. Mikä sitten lie syynä, mutta studio-ohjelmissa se on jouduttu usein kytkemään emolevyltä pois päältä, koska musaohjelmat ovat joko hidastuneet (!) tai sitten alkaneet pätkiä äänityksessä tai toistossa kummalla tavalla. Joskus luin selitystäkin asiaan, mutten muista siitä sen kummempia.

Tietokoneen kokonaislaskentateho alkaa olla koko ajan mutkikkaampi asia ymmärtää. Sehän ei ole esim. CPU:n kokonaislaskentateho, vaan kulloisellakin hetkellä suurin hyödynnettävissä (!) oleva teho. Ja se taas elää koko ajan ohjelmistojen ja ajurien tuottaman kuorman mukana. Esim. pahamaineisen yksisäikeinen MS Office (ainakin aiemmat versiot) + vaikka jokin virusskanneri voivat hyödyntää käytännössä vain enintään kahden ytimen kokonaistehon, jolloin kaikki ylimääräiset jäävät teoreettiseksi "tehoksi". Sitten taas esim. Studio One, Sony Vegas Pro, uusin Civilization peli jne. ottavat hyvinkin tarkkaan kaiken irti koneen laskentakyvystä ainakin vähintään 8 ytimeen saakka. Jotta soppa olisi vielä sekavampi, nykyään kuvaan astuvat koko ajan enemmän toisaalta näytönohjainten OpenCL:ää hyödyntävät erittäin voimakkaat rinnakkaislaskentayksiköt (joita mm. Photoshop ja Vegas hyödyntävät), toisaalta sitten uuden polven konsoleissa ensiesiintynyttä HSA-muistinhallintaa tukevat sovellukset (joissa näytönohjain ja CPU käyttävät saumattomasti samaa muistia eivätkä joudu siirtelemään koodia näytönohjainmuistista CPU:lle tai toisinpäin). Näissä koneen kokonaisteho voi sopivassa tilanteessa helposti monikymmenkertaistuakin. Ohjelmoijat ovat vasta opettelemassa näiden käyttöä, mutta jo tällä hetkellä jotkin tehtävät kuten datan pakkaus saavat melkoisia tehoboosteja näytönohjeimista.

chipe

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 15:33:15 ip
Hyperthreadingissa muuten on musapiireissä pahamaineinen kaiku. Mikä sitten lie syynä, mutta studio-ohjelmissa se on jouduttu usein kytkemään emolevyltä pois päältä, koska musaohjelmat ovat joko hidastuneet (!) tai sitten alkaneet pätkiä äänityksessä tai toistossa kummalla tavalla. Joskus luin selitystäkin asiaan, mutten muista siitä sen kummempia.


Luultavasti kyse on juurikin tästä samasta mikä nyt on pointtina eli pienempi määrä tehokkaita ytimiä voi olla parempi kun suurempi määrä hitaampia. Kahdeksi hyperthreading-ytimeksi jaettu fyysinen ydin on kokonaistehoiltaan suurempi mutta sen puolikkaat ovat hitaampia mitä ydin olisi yksinään. Tuo johtuu ihan siitä että jaettuna ytimen osasia kuormitetaan reilummin ja se kuluttaa enemmän virtaa ja tuottaa enemmän lämpöä ja niiden kompensoimiseksi sitä ajetaan pienemmillä kellotaajuuksilla. Jos yksittäiset tehtävät pitää hoitaa mahdollisimman ripeästi, on parempi pyrkiä maksimoimaan yksittäisen ytimen tehot.

Hyperthreading ja turbomoodit on sinänsä hyvin fiksuja mekanismeja että niissä tosiaan pyritään maksimoimaan yksittäisten säikeitten teho silloin kun ylimääräiset ytimet olisi vain pelkkää tehonhukkaa. Mutta jos softat nyt menee sitten käynnistämään vaikka 8 säiettä jyystämään jatkuvasti niin silloin käyttis todennäköisesti päättää mieluummin ajella noita kaikilla kahdeksalla "ytimenpuolikkaalla", koska siten saavutetaan suurempi kokonaisteho. Siinä sitten suurinta mahdollista yksittäisen ytimen tehoa kaipaava softa kärsii. Sitä en tiedä osaako Windows jättää jonkun ytimen jakamatta jos prosessia ajetaan high tai realtime prioriteetilla.

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 15:33:15 ip
Tietokoneen kokonaislaskentateho alkaa olla koko ajan mutkikkaampi asia ymmärtää. Sehän ei ole esim. CPU:n kokonaislaskentateho, vaan kulloisellakin hetkellä suurin hyödynnettävissä (!) oleva teho. Ja se taas elää koko ajan ohjelmistojen ja ajurien tuottaman kuorman mukana. Esim. pahamaineisen yksisäikeinen MS Office (ainakin aiemmat versiot) + vaikka jokin virusskanneri voivat hyödyntää käytännössä vain enintään kahden ytimen kokonaistehon, jolloin kaikki ylimääräiset jäävät teoreettiseksi "tehoksi". Sitten taas esim. Studio One, Sony Vegas Pro, uusin Civilization peli jne. ottavat hyvinkin tarkkaan kaiken irti koneen laskentakyvystä ainakin vähintään 8 ytimeen saakka.


Kokonaisuuteen tosiaan vaikuttaa moni tekijä mutta se ei muuta sitä että cpu-komponentin osalta sama sääntö pätee eli samoilla kokonaistehoilla pienempi ydinmäärä on parempi. Ja usein suurempi yksittäisen coren teho ratkaisee vaikka kokonaisteho olisi pienempikin, kuten tuossa musaohjelmaesimerkissä.

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 15:33:15 ip
Jotta soppa olisi vielä sekavampi, nykyään kuvaan astuvat koko ajan enemmän toisaalta näytönohjainten OpenCL:ää hyödyntävät erittäin voimakkaat rinnakkaislaskentayksiköt (joita mm. Photoshop ja Vegas hyödyntävät), toisaalta sitten uuden polven konsoleissa ensiesiintynyttä HSA-muistinhallintaa tukevat sovellukset (joissa näytönohjain ja CPU käyttävät saumattomasti samaa muistia eivätkä joudu siirtelemään koodia näytönohjainmuistista CPU:lle tai toisinpäin). Näissä koneen kokonaisteho voi sopivassa tilanteessa helposti monikymmenkertaistuakin. Ohjelmoijat ovat vasta opettelemassa näiden käyttöä, mutta jo tällä hetkellä jotkin tehtävät kuten datan pakkaus saavat melkoisia tehoboosteja näytönohjeimista.


OpenCL:ssä näkyy muuten ihan vastaava tilanne vähän eri muodossa eli että pieni määrä tehokkaampia ytimiä olisi parempi. GPU:lla niitä ytimiä riittää, mutta ne ovat huomattavasti rajoittuneempia. Eikä ainoastaan yksittäisen ytimen raa'an laskentatehon puolesta vaan siinä mitä operaatioita se osaa suorittaa. Siksi monen tehtävän muotoilu sillä suoritettavaksi on tuskainen ja kustannustehokkuuden kannalta vähemmän optimaalinen tehtävä ja noiden ytimien rajoittuneisuudesta johtuen useimmat GPU-pohjaiset ratkaisut itse asiassa hukkaavat merkittävän osan teoreettisesti käytössä olevista tehoista. Karkeasti yksinkertaistaen homma menee usein niin että GPU:lla lasketaan 1+1+1+1 siksi ettei se vain osaa laskea 2+2 eli suoritetaan suuri määrä ylimääräisiä operaatioita suhteessa siihen mitä normaalilla tehokkaalla CPU:lla tehtäisiin. GPU:lla se yhteisteho vain on riittävä jotta tuollaiseen tuhlaukseenkin on varaa.

ChiliTard

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 15:33:15 ip
Hyperthreadingissa muuten on musapiireissä pahamaineinen kaiku. Mikä sitten lie syynä, mutta studio-ohjelmissa se on jouduttu usein kytkemään emolevyltä pois päältä, koska musaohjelmat ovat joko hidastuneet (!) tai sitten alkaneet pätkiä äänityksessä tai toistossa kummalla tavalla. Joskus luin selitystäkin asiaan, mutten muista siitä sen kummempia.


DAW:it oli alkuun hyvinkin huonoja yleensäkkin käyttämään useampaa ydintä, tais olla Reaper edelläkävijä. Synkka aiheutti ongelmia alkuun ainaki, siis jos ihan audioprosessointia jaettiin eri ytimille eikä vaan kosmeettisia asioita. Hyperthreading sai huonoa mainosta ku muistaakseni Abletonin tekijät väitti et HT hidastaa sitä - saman tien kyllä tais käyttäjät sanoa ettei pidä paikkaansa ja sit käytiin vääntöä. HT toimi todella huonosti osx:llä joka oli käyttiksen vika, winukalla ei ollu ilmeisesti juurikaan ongelmia. Ja HT:ki oli vaan ongelmana ku ytimet nousi 8:saan, mutta myös 8 fyysistä ydintä aiheutti samoja ongelmia - joten HT ei tainnu olla ikinä mihinkään syyllinen. Mitä muistelen niin ne ongelmat tais enemmänki johtua siitä, et porukka laski latenssin liian pieneks ku ne sokaistu hurjista konetehoista ja/tai asioajureitten ongelmista moniytimien kanssa. Ja noilla vanhoilla jutuillahan ei oo mitään tekemistä nykyajan kanssa muutenkaan, viiteen vuoteen oo nähny mitään puhetta enää aiheesta..

Aji Inferno

DAWt (eli selkokielellä musatuotantotietsikat) ovat olleet ehkä pahimpien näkemieni "konesotien" näyttämöitä. Kuten vaikka kitaroissa, tunteet todella loimusivat esim. Steinbergin foorumeilla siihen malliin, ettei siellä uskaltanut pian suutaan avata. ;)  Siinä käyttötarkoituksessa kävivät myös epätavallisen selväksi eri arkkitehtuurien vahvat ja heikommat puolet. Esim. silloiset Intelit ja AMD:n myllyt (joihin omanikin yhä kuuluu) olivat aivan eri tasolla keskenään riippuen siitä, käytettiinkö etupäässä samplepohjaisia (eli muisti-intensiivisiä) virtuaalisoittimia yms, vaiko hyvin vahvasti vaikka liukulukulaskentaan pohjaavia syntikoita tai efektejä.

Vähän sekavat fiilikset siitä kaikesta. Olen itse käyttänyt lähes aina 2 millisekunnin latenssia ilman ongelmia 24 bitin 44.1 kHz äänityksissä ja toistossa. Hyvin raskaissa tuotannoissa saattoi joutua nostamaan tuon kolmeen millisekuntiin, ennätys taisi olla kuusi. Eli käytännössä viiveettömästi (poislukien ehkä kultakorvaisimmat rumpalit!).

Musasoftat tykkäävät ennustettavuudesta. Siinä nähtävästi niiden ongelma sekä HT:n, että erilaisten virransäästötekniikoiden kanssa. Ne eivät lainkaan pidä siitä, että kun esim. odottavat kahdeksaa ydintä jonkin pirullisen soundiefektin renderöintiin tuon 2..3 millisekunnin aikana, hyperthreading meneekin "tukkoon" (sehän ei lopulta vastaa kahta ydintä per core kuin joissakin tilanteissa). Silloin sattuu kummallisia - ymmärtääkseni edelleenkin. Sama pätee muuten niin käteviin jatkuvasti kuorman mukaan säätyviin virransäästöautomatiikkoihin. Kun esim. lataan Studio Onen ja siihen jonkin hiukan mutkikkaamman biisin jossa raskaita efektejä ja soittimia koneeni normaalitilassa (missä se käy 95% ajasta noin 1 GHz:n taajuudella matalalla jännitteellä ja jopa CPU-tuuletin automaattisesti sammutettuna - ei jotain, mitä ehkä odottaisi "kuuman" maineiselta järeältä AMD-sirulta), kaikki käy yleensä miltei miten pitääkin. Biisi soi nätisti jne. Mutta... Toisinaan sitten kuuluu satunnaisia "naksauksia" sen seurauksena, että Studio One odottaa käytössään olevan se 6x3.9 GHz, mutta konepa onkin puoliksi nukkumatilassa, pahimmillaan 1 GHz:lla, tai saitten jossain useista välitiloistaan (1.8 GHz, 2.6 GHz, tms). Ja mikä parasta, eri ytimet saattavat jopa käydä eri nopeuksilla. Toisin sanoen, tietokone ei ehdi nostaa hyvin pienillä latensseilla toimivassa audiotyöasemassa tehojaan tarpeeksi nopeasti ylös estääkseen pienen kuuluvan napsauksen toistossa. Eli ensimmäinen tekoni kun alan äänittää tai miksata: Windowsin virransäästö veks ja koneelle täydet tehot käyttöön. Silloin ohjelmat tietävät mitä odottaa. ;)

Aji Inferno

Latasin tuossa äsken piruuttani yhden hiukan keskeneräisen biisin ja soitin sitä katsellen samalla CPU-kuormaa eri virranhallinta-asetuksilla. Oikeastaan aika kiehtovaa tutkittavaa Windows kympillä... Tuossa biisissä Studio One 3 (64-bit) käytti kuutta CPU-ydintä varsin tasaisesti, kuormana siinä 10..20% per ydin. Virransäästötilankaan muutos ei vaikuttanut kuormiin hirveästi, vaikkakin havaittavasti. Tuo biisi ei selvästikään "haastanut" konetta melkein unitilastaan oikein mihinkään tositoimiin.

Mitä tapahtui poistuessani ohjelmasta (eli kirjoitan nyt vain tätä Firefoxilla) on paljon kiintoisampaa. Core 0 on ottanut koneen ainoan selvästi aktiivisen coren roolin noin 10..30% loadilla. Mitä tekeekään, en tiedä. Välillä, kuten nyt, laskee muiden lailla loadinsa lähes nollaan. Coret 2-5 ovat tällä hetkellä "Parked" -statuksella, eivätkä näytä enimmäkseen tekevän mitään. Coret 4 ja 5 eivät nyt esitä mitään elonmerkkejä, eli ilmeisesti ne on sammutettu työn puutteessa kokonaan. Ja samalla CPU-tuulettimet sekä kotelotuulettimetkin. Eikä tuota "nukkumatilaa" voi silti tätä kirjoittaessani havaita pienimmissäkään määrin mistään. Ei minkäänlaisia viiveitä tai unisuutta. Sinänsä aika hyvin sekä Windows 10:ltä, että nelisen vuotta vanhalta tietokoneelta!

Käynnistänpä nyt ilkeän raskaan pelisession Civilizationissa..! Käytän siis konetta yhä virransäästötilassa, en täydellä teholla.

Ja johan alkoi tapahtua!! Jo tallennusta ladatessa kaikki kuusi corea menivät hetkeksi 100% kuormaan, ja nyt, pelin odottaessa siirtoani, kaikki kuusi corea toimivat 35..60% kuormalla. Eli Civ todellakin skaalautuu erittäin hyvin! Nyt, pelin tekoälyn laskiessa siirtojaan, pari corea käy 70% kuormassa, muut 40..50 paikkeilla. Mutta edelleenkin erittäin hyvää säikeistymistä - eikä tämä ole edes se moniytimille varta vasten suunniteltu uusin avaruus-civ, vaan vanhempi "Brave New World" ! Mutta turvallisilla vesillä vielä ollaan, ja tehoa on reserviinkin.

Kyllä hyvä neliydinkone esim. tämän tilanteen vielä hoitaisi kunnialla. Silloin neljän ytimen kuormat vain alkaisivat hipoa tappia. Kaksiydinkone olisi tässä tilanteessa jo pahasti polvillaan. Ja Civ tunnetusti vain pahenee tästä loppua kohti...

Kokeilenpa vielä toista tämän hetken suosikkiani tähän päälle: suomalainen mestariteos Cities: Skylines After Dark...

Kuten uudelta peliltä odottaa sopii, peli skaalautuu lähes täydellisesti kuudelle ytimelle.  Vain kuutosydin on hiukan muita pienemmällä kuormalla, mutta kaikki tekevät tosissaan töitä. Ja koska viisi ydintä tekevät sitä nyt 60..75% teholla ja viimeinen 40%:lla, voisi ennustaa monen neliydinkoneen olevan tässä kohdin ainakin pienissä vaikeuksissa - jo siksikin, että tässä on nyt käytössä nykyäänkin kohtuukorkea 3.9 GHz kellotaajuus per ydin.

Lisätäänpä haastetta. Laitetaan nyt Studio One musasofta kehiin... Done. Nyt siis raskas uusi peli käy taustalla ja soitan raskasta musasekvensseriä biisilläni. Muistikuorma on jo 9 gigan paikkeilla. Ei minkäänlaisia ongelmia. Nyt kaikki CPU-ytimet käyvät noin 70% kuormalla. Eli lisää pökköä pesään... Laitan tämän miksauksen soimaan luuppina taustalla pelin päällä efekteineen kaikkineen.

Nyt Adobe Photoshop CC:hen 41 (!) 16 megapikselin valokuvaa... studiosoftan ääni ei pätki, iso ja raskas peli ei pätki, mikään ei hidastu tai pätki. Photoshop toimii mainiosti. Muistikuorma vain lähestyy 16 gigaa. ;)

Toisin sanoen, vaikka yritän miten laittaa koneen "kyykkyyn", se ei mene... Ja tämä tosiaan on jo neljä vuotta vanha kone, jonka tekniikasta harva laulaisi nykyään ylistyslauluja (ainakaan, jos haluaisi pysyä trendikkäänä ;) ).

Todella: hyvistä osista kunnolla koottu tietokone toimii hienosti yllättävän monta vuotta! Eikä esim. tätä tarvitse päivittää tässä hetkessä, sillä tätä hullumpia keinotekoisia rasitusskenaarioita en arjessani käytä. :)


chipe

syyskuu 28, 2015, 23:31:37 ip #1833 Viimeisin muokkaus: syyskuu 28, 2015, 23:33:51 ip käyttäjältä chipe
Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 21:24:57 ip
hyperthreading meneekin "tukkoon" (sehän ei lopulta vastaa kahta ydintä per core kuin joissakin tilanteissa). Silloin sattuu kummallisia - ymmärtääkseni edelleenkin.


Kyllä tuo vastaa kahta ydintä mutta selvästi (tilanteesta riippuen jopa puolet) hitaampia ytimiä. Pahimmat ongelmat tuossa on kait liittyneet vanhoihin käyttiksiin jotka ei ole tajunneet HT:ta, ja seurauksena ovat voineet esim. jakaa 2 ainoaa tehtävää saman prossun puoliskoille, jolloin yksi jauhaa ja muut idlettää. Ja vastaavasti jos eivät tuota tajua, niin se on tietysti yllättävää jos tehtävän anto yhdelle prossulle pudottaakin toisen tehoja merkittävästi. Nykysysteemit tajuaa toimia fiksummin.

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 22:23:25 ip
Kyllä hyvä neliydinkone esim. tämän tilanteen vielä hoitaisi kunnialla. Silloin neljän ytimen kuormat vain alkaisivat hipoa tappia. Kaksiydinkone olisi tässä tilanteessa jo pahasti polvillaan. Ja Civ tunnetusti vain pahenee tästä loppua kohti...


Nope, vastaavan yhteistehon neliydinkoneella keskimääräinen tehonkulutus olisi ihan vastaava eli jos 6-ydin jauhaa 60% niin neliydin jauhaisi saman 60%.

Tuo puheena ollut AMD oli vissiiin Phenom II X6 Black 1090T? Sitä jos vertaa vaikka osapuilleen samalta ajalta peräisin olevaan ja kellotaajuudeltaan vastaavaan Core i5 2500K:hon (neliydin), niin kyllä tuo neliydin aika selkeästi on mittauksissa niskan päällä, mukaanlukien max 16-säiettä tukevassa Cinebenchin multi-threaded-versiossa:

http://www.anandtech.com/bench/product/146?vs=288

Nykyisiin i7 neliydintykkeihin verrattuna takkiin tulee yli puolet per ydin eli jonkun kolmiytimisen tuo varmaan vaatisi vastaaviin tehoihin:

http://www.anandtech.com/bench/product/146?vs=1542

Karkeasti ottaen voi kuitenkin olettaa että vastaavassa tilanteessa missä tuo 6-ydin jauhaa 60% kuormalla tuollainen nykyinen tehokas neliydin vasta lämmittelisi 30% kuormalla.

Aji Inferno

Heh, tämä on kuin tennistä - olemme niin selkeästi, omine perusteluinemme "eri puolilla". ;)  Kumpikin vakuuttuneina joistakin asioista. Lopulta näillä ei ole väliä. Vain sillä on, että olemme tyytyväisiä käyttämiimme laitteisiin ja ohjelmiin. Silloin systeemi on "tarpeeksi hyvä". Mikä terminä ärsyttää niitä, jotka etsivät aina absoluuttista huippua asioissa, mutta itselleni se ei ole koskaan ollut päämäärä. Ainoastaan se, että hommat hoituvat moitteettomasti ja että koen saaneeni rahalleni vastinetta. Nähtävästi se on mahdollista niin Intel- kuin AMD-puolillakin, vaikka noiden suunnittelufilosofiat eroavatkin suuresti toisistaan. Zen-sirujen myötä mahdollisesti entistäkin enemmän.

chipe

Lainaus käyttäjältä: Aji Inferno - syyskuu 28, 2015, 23:46:10 ip
Heh, tämä on kuin tennistä - olemme niin selkeästi, omine perusteluinemme "eri puolilla". ;) 


No omat perusteluni ovat ainakin selkeitä mitattuja lukuja ;). Se on joka tapauksessa ihan varma, että jos meillä olisi vierekkäin nuo mainitut AMD ja i7 ja niissä suoritettaisiin vaikka mainitsemasi testisekvenssi samaan aikaan, niin i7:n kokonaiskuorma olisi selvästi pienempi.

Yksi Intel-pomohan tuossa muuten taannoin pilaili AMD:n ja MediaTekin ytimien määrää korostavan markkinoinnin kustannuksella 65-ytimisellä puhelimellaan:

http://www.theinquirer.net/inquirer/news/2411519/computex-intel-pokes-fun-at-amd-and-mediatek-with-65-core-xeon-smartphone

Mutta kuten olen aiemminkin todennut niin olisi toki kovasti toivottavaa että AMD saisi Intelin etumatkaa kiinni tulevilla malleillaan ja samalla saisi aikaan kilpailua ja Intelillekin vähän hinnoittelupaineita. En usko että on kuitenkaan kovin realistista odottaa että AMD jatkossakaan haastaisi Intelin terävintä kärkeä. AMD:hän on mainostanut eniten Zenin 40% IPC lisätehoa mutta niinhän se taisi mainostaa 50% teholisää Bulldozerillekin, ja totuus jäi vähän toiseksi.

AMD on niitä firmoja, että sinänsä mielellään olisi altavastaajan puolella, mutta se olisi helpompaa, jos firma olisi tehnyt hiukka vähemmän virheitä strategiansa ja tuoteportfolionsa kanssa. Näin ulkopuolelta katsottuna siellä ainakin näyttää olevan johdolla pallo aika hukassa. Ei ole lainkaan hyvä tilanne, että talousvaikeuksissa oleva firma yrittää kilpailla kahdella tontilla kahden vahvemman kilpailijan kanssa samaan aikaan kun leikkaa rajusti omia tuotekehityspanoksiaan. Seurauksena markkinaosuus CPU-puolella on mitä on ja GPU-puolellakin ollaan kaikkien aikojen pohjilla (NVidian osuus jo 80% tietämissä). Iso läjä aiempia tuotekehityspanoksia päättyi juuri alaskirjauksiin, uudet tuotteet näyttävät myöhästyvän entistä pahemmin, pääarkkitehti lähti lätkimään jne. Positiiviselta puolelta ovat kaiketi saaneet järjesteltyä varsin mittavat lainansa uudelleen niin ettei välitöntä konkan uhkaa taida sentään olla lähivuosina.

AMD:n strategioissa ihmetyttää eniten ettei se oikein tunnu löytävän omia vahvuuksiaan ja uusia suuntia joilla välttää samat virheet. AMD:n asemassa pyrkisin mieluummin haastamaan koko (pääkilpailijalta lisensoidun) x86-arkkitehtuurin ja suuntaamaan yhä vahvemmin ARM-puolelle. Välillä jo näytti siltä että tekisivät niin mutta eipä nekään suunnitelmat oikein mihinkään edenneet. Kuten olen aiemmin todennut niin olisin luultavasti itse kehittänyt hyvin Linux-vetoisen strategian ja pyrkinyt muodostamaan sen ympärille strategisia kumppanuuksia kun omat resurssit on rajalliset. Ja toisaalta ovat panostaneet mobiilipuoleen aivan liian vähän. Siellä se tulevaisuus on kuitenkin yhä vahvemmin.

Aji Inferno

Intelin ja AMD:n arkkitehtuurit ja filosofiat ovat jo vuosia lähteneet aikalailla eri suuntiin. Molempien käyttäjät tuntuvat olevan keskimäärin tyytyväisiä valintoihinsa. Ja molemmat löytävät benchmarkeja, jotka perustelevat valintansa "paremmuuden". Isomman firman ja brändin kannattajilla on aina isompi voima vaikuttaa muihinkin (kameroissa esim. Canon, Nikon). Silti monille käyttäjille parempi valinta on jokin muu (kameroissa esim. Olympus, FujiFilm, Sony, Panasonic, jne.). Mikä näissä jutuissa menee aina naurettavuuden puolelle on se ajatus siitä, että olisi "yksi ylivoimainen vaihtoehto" muihin nähden. Jossain aivan erityistilanteissa näin onkin, mutta esim. tämän foorumin tietokoneen käytössä aivan kaikki nykyaikaiset prosessorit ovat enemmän kuin riittävän tehokkaita ja kykeneviä aivan kaikkeen mitä teemme. Lähes kaikille. Ja niin ovat jopa useita vuosia vanhat prosessorit, on niissä sitten mikä logo hyvänsä.

Sen voi ajatella näinkin: ehkä esim. oma tietokoneeni toimisi 10..20% nopeammin jollain tietyllä prosessorilla. Mutta mitä hiton väliä sillä olisi, kun kerran kaikki toimii nytkin enemmän kuin mainiosti. :)  Olemme tulleet aikaan, jona tietokoneiden laskentakapasiteetti esim. ei enää useimmille ole ongelma. Sisareni hankki HP:n todella "low end" PC:n, joka käyttää AMD:n Jaguar-prosessoreja (eli samoja, joita esim. Xbox One ja uusin Playstation käyttävät). Numeroissa ja testosteronivertailuissa tuo mainio, todella huokea laite on monelle täälläkin pelkkä huono vitsi. Ei tietokone lainkaan. Mutta kun itse viritin laitteen sisarelleni käyttöön ja pääsin kokeilemaan sitä, huomasin suureksi yllätyksekseni, että tuo ultrahalpa vehje oli käytössä varsin sähäkkä. Ei mitään hidasteluita. Itse asiassa hyvinkin paljon nopeampi kuin työssä käyttämäni kaksi, paljon kalliimmalla ja teoriassa ylivoimaisilla Intelin i5 -prosessoreilla käyttämäni läppäriä. Miksi noin? En ole päässyt selvittämään syitä, mutta näppituntuma oli silti todellinen. Tai kuten Shakira lauloi: "Hips don't lie". Numerot ovat numeroita. Käyttötuntuma on sitten oma juttunsa.

Tietokoneita jo noin ainakin 25 vuotta harrastaneena ja rakentaneena alan ylipäätään vähän huvittuneena katsomaan sitä, miten typeriin asioihin kiinnitämme huomiomme. Niin olen tehnyt itsekin! ;)  Ylikellotin vuosia sitten aivan kaiken mahdollisen, vaikka tuloksena oli usein äänekäs ja epäluotettava kone. Halusin kilpailla tehosta ja kaikesta. Nykyinen tietokoneeni on ensimmäinen, joka on "riittävän tehokas" kaikkeen mitä teen. Ja täysin vakaa. Hiljainen. Riittävän energiatehokaskin. Päivitän tämän 2016..2017 luultavasti Zen-pohjaiseen systeemiin. Ihan piruuttani, koska en pidä Intelin kaltaisten toimijoiden (tuomioistuimissa tuomittujen) mafiamaisista toimista. En anna rahojani paskiaisille - etenkään, kun hyviä vaihtoehtoja kerran on. :) 

Mutta niin tai näin, on tärkeää, että vaihtoehtoja on ja tulee olemaan. :)

sorrii

LainausIhan piruuttani, koska en pidä Intelin kaltaisten toimijoiden (tuomioistuimissa tuomittujen) mafiamaisista toimista. En anna rahojani paskiaisille - etenkään, kun hyviä vaihtoehtoja kerran on. :) 


Tuo on oikeesti paras perustelu aikoihin, miksi joku valitsee tietyn valmistajan systeemin  :D ... Ne tehoerot ainakin menee selittelyksi ...
Mä itse lähdin paljolti samalla hengellä viime syksynä rekentelemaan A10-konettani. Heräte siihen hommaan kylläkin tuli Verkkokaupan outletissa, kun löysin A10 7850K -prossun hyvään hintaan. Ajattelin sen ympärille sitten kompaktia, hiljaista ja tyylikästä konetta jossa riittää tehot satunnaiseen pelaamiseen ...
[Pitkä tarina on ketjussa ~10kk sitten]

Siinä hommassa vaan meni kyllä kaikki Murphyn lait justtiinsa ja meni hermot sekä terveys, ajasta puhumattakaan, kun ei vaan mikään toiminut. Kaikki [eri nettikaupoista ostetut!] komponentit sitten testautin vielä Verkkokaupassa [.com] ja ne todettiin ehjiksi. KAKSI kertaa sain uuden virtalähteenkin takuusta tuon kirotun projektini aikana.
Myin siis nuo valikoidut komponentit pois kohtuulliseen hintaan: Olinpa valinnut kaikki osat sitä vähän parempaa laatua ja menivät kyllä helposti kaupaksi, eikä tullut takkiin kuin joitakin kymppejä.

Sitten mielenhäiriössä, kiihtyneessä mielentilassa vähintäänkin, tilasin i7 4790K -prossun + ASUS Maximus VII Gene -setin. HyperX Savage 2400MHz 16GB setti oli jo valmiina; Tulipa hommattua siina -vanhat myytyäni- uusi Samsungin SSD ja iso hybridi-kiintolevy ja vielä lopulta Gf GTX970 Phantom [Ganward] ... jne.

Ostin siis lopulta käyttööni täysin ylitehoiset komponentit ja kaikki väärää merkkiä [intel - nVidia] ja budjetti nousi kaksinkertaiseksi aiotusta  ???
Mutta-mutta: Mitässitten!?! Jos aikuinen raitis ja autoton ukkeli tuhlaa ~400€ ylimääräistä [verrattuna välttämättömiin] saadakseen tehokkaan, luotettavan ja hiljaisen sekä vielä tyylikkäänkin tietokoneen jolla taas mennään varmaan 5 vuotta. Mulla ei oikein ole edes kavereita jolle voisin noilla elvistellä  ;) Täällä tietysti Aji Inferno ja pari muuta voisi mielikuvituksessani vähän vihertää, mutta mun sosiaalisessa reaalimaailman ympäristössäni taitaa 24v poika olla ainoa joka noista tajuaa edes vähän. Ja sekin on poliisi ...  ::)

Nyt on pakko muodon vuoksi vähän opetella ajamaan rallia [DiRT Rally - Early acces] ja sekoilla GTA V'n hullussa maailmassa, etten tuntisi ihan turhaan noita hankkineeni.
Mukava tunne on, että kone hyrisee hyvin tyytyväisenä ja minäkin luotan siihen. 4500MHz näyttää pitävän kelloja vaikka en kunnolla edes tutustunut BIOSiin: Jonkun teho-asetuksen siellä valitisin vaan. Käynnistyksessä kone huutaa hetken kuin pölynimuri, mikä johtunee Corsairin vesijäähystä. Bootin jälkeen en koneen ääntä tuossa vieressä pöydäällä edes huomaa. Noissa em. peleissä saan pitää asetukset tapissa, eikä mitään nykimisiä ole. Näytönohjain pysyy täysin äänettömänä pelatessakin ja kuumaksi väitetty prossu pysyy alle 60 asteessa kokoajan ... Kotelo on mallia "valkoinen katiska jossa on 6kpl 120mm tuulettimia" Corsair AIR 240 [valkoinen tietysti] ...

***********

Mikäkö on sitten mun sanomani tässä!?!
Ei sitten oikeestaan mikään. Koin kantapään kautta vanhan viisauden, että jos ei ole tarvetta, niin älä päivitä! Jos asiat toimii niin älä muuta niitä ... jne...
.. Ellet sitten halua ajankulua, jännitystä ja kokemuksia kerrottavaksi foorumilla  :)
Mä käytin aikaa täyspäiväisesti varmaan yli 3 viikkoa noiden rojujen kanssa sekoillessa. Taloudellisesti asiat meni oikeestaan hyvin, kun sain vanhankin koneen myytyä lopulta aika hyvään hintaan. Lopputulokseen oon tyytyväinen, ja vähän yli. Se tuhlattu aika ja rahakaan ei jälkikäteen harmita. Eipähän tarvitse muutamaan vuoteen varmaan tuollaiseen taas ryhtyä. Sittenkun taas haluan alkaa taistelemaan vaihtoehtotekniikan kanssa niin menen ostamaan AMD'n palikat. Niiden muutaman säästetyn kympin takia en sitä nyt tekisi uudelleen...
[[mainitaanpa vielä että oli käytössä myös AMD'n näyttis HD7950 TwinFrozr OC Boost Edition: Siinäkin oli niin kummallisia vikoja, että yritin vaihtaa takuuna: Se ei onnistunut -osin huonon saksan kielen taidon takia- mutta vaihdoimpa senkin "periaatteesta" että tuli takinkäännöstä täydellinen ... Myynissä HD7950 - 100€ -virheettömäksi todettu huollossa ]]

Harrastuksia ei pitäisi ottaa liian vakavasti ... yleensä ..
ø¤º°`°º¤ø,¸¸,ø¤º°`Fuck Google!`°º¤ø,¸¸,ø¤º°`°º¤øø¤º°`Ask Me!°º¤ø,¸¸,ø¤º°``°º¤ø,¸¸,ø¤º°``°º¤ø,¸¸,ø¤º°`

Aji Inferno

lokakuu 02, 2015, 15:49:09 ip #1838 Viimeisin muokkaus: lokakuu 02, 2015, 15:51:33 ip käyttäjältä Aji Inferno
Joo, riittää kun kerran kokee huonoja juttuja jonkin merkin kanssa - ei välttämättä viitsi kokeilla uudelleen. Mulla sellainen valmistaja on ollut MSI. Välttelen yhä takavuosien kehnojen emolevyjen takia, vaikka nykyään saattavat olla aivan mainioita. Ja samaten, yksi ostaa Intelin saadakseen laatua ja vakautta (+ tietty joidenkin silmissä myös statusta!) - toinen sitten taas vaikka juuri AMD:n samasta laatu + vakaus (statusta sillä ei tänä päivänä saa) syystä. Kenellä mistäkin merkistä hyviä kokemuksia, kenellä huonoja. Sorriin ongelmien syy jäi selvittämättä, mutta tuskin ne liittyivät mitenkään Intel/AMD -valintaan, sillä molempien laatu on ollut jo pitkään aivan sama, eli moitteeton. Ja molemmilta voi huonolla tuurilla saada maanantaikappaleen.

Siinä mielessä asiat ovat parantuneet, ettei esim. lisälaitteissa ole tätä nykyä juuri mitään alustayhteensopivuuden ongelmia, kuten vielä viitisenkin vuotta sitten oli. Silloin esim. 2 erilaista USB standardia (toinen Intelin oma, toinen kaikkien muiden valmistajien standardi) aiheutti välillä inhottavia ongelmia malliin "siirtokiintolevy ei tunnistu yhdessä tietokoneessa, toisessa sitten kyllä". Myös nykyään jo pitkälti unohtuneessa, videon ja audion siirrossa käytetyssä FireWire -liitännässä oli ja on erittäin pahoja yhteensopivuusongelmia. Ja sitten ehkä se kaikkien aikojen ennätys: Creative ohjelmoi jostain aivopierusta tai synkemmästä syystä vuosia sitten ajureihinsa sellaisen koodinpätkän, etteivät firman äänikortit edes asentuneet, ellei tietokoneessa ollut Intelin prosessori. Aika jäynä. ;)  Myös testiohjelmissa on ollut skandaaleja. Esim. eräät hyvin laajalti käytetyt benchmarkit paljastuivat Inteliä suosiviksi viritetyiksi. Kun asiasta nousi julkinen melu, se korjattiin. Mutta sota on likaista myös ohjelmistopuolella. Ohjelmistotaloille ja kehittäjille aivan varmasti maksetaan tänä päivänäkin siitä, että ne toimisivat paremmin yhdessä systeemissä ja huonommin toisessa. Pelipuolella näemme tämän toisaalta Nvidiaa, toisaalta AMD:tä suosivina peleinä... 

Tuollainen kiusanteko on hyvin helppoa. Esim. useimmat nykyohjelmat ja laiteajurit sisältävät useita vaihtoehtoisia "koodipolkuja". Ne voivat esim. heti alkuun kysyä onko koneessa mikä prosessori (tai näytönohjain). Jos vastaus on vaikka "Genuine Intel", sen jälkeen suoritetaan yhdenlainen koodi. Muussa tapauksessa toisenlainen. Tuokin syntyi tavallaan ihan järkisyystä, sillä samankin valmistajan eri laitteissa on aina erilaisia tukia eri ominaisuuksille. Silloin on tietysti fiksua valita aina tehokkain koodipolku. Tuo vain mahdollistaa lastenleikkinä myös sen, että joitakin koodipolkuja hidastetaan ihan tietoisesti. Se ei ole temppu eikä mikään. Yksi tunnetuimpia tällaisia koodipolkuvalintoja on esim. Adobe Photoshopin asetuksissa oleva "Käytä GPU-kiihdytystä" -valinta. Sen jos kytkee päälle, osa ohjelman toiminnoista siirtyykin näytönohjaimen suoritettavaksi. Mutta tällöinkin lopputulos riippuu siitä, ovatko näytönohjaimen OpenCL-ajurit optimoitu esim. tiettyjä prosessoreja suosivasti, vai ei. Ja niin edelleen. Tämä kaikki selittää paljon siitä, miten esim. yhdessä testissä Intelin i7 kävelee AMD:n prosessorien ylitse, mutta toisessa sitten voi käydä jopa päinvastoin. Testitulokset voi hyvin pitkälti päättää valitsemalla juuri sopivanlaiset ohjelmistot, ajurit ja oheislaitteet...

Jame

Lainaus käyttäjältä: sorrii - lokakuu 02, 2015, 13:52:21 ip

Mutta-mutta: Mitässitten!?! Jos aikuinen raitis ja autoton ukkeli tuhlaa ~400€ ylimääräistä [verrattuna välttämättömiin] saadakseen tehokkaan, luotettavan ja hiljaisen sekä vielä tyylikkäänkin tietokoneen jolla taas mennään varmaan 5 vuotta. Mulla ei oikein ole edes kavereita jolle voisin noilla elvistellä  ;)

Harrastuksia ei pitäisi ottaa liian vakavasti ... yleensä ..


Hyvä pointti. Kaikki raha tuppaa menemään. Johonkin. Ja kukin toki saa käyttää rahansa mihin haluaa. Kunhan ei sitten valita esim. autoilun kalleudesta samaan aikaan kun pihassa pitää olla kaksi uutta autoa.

Mutta kun yleensä siitä rahasta on pulaa (ainakin itsellä) jolloin on pakko tyytyä kaikenlaisiin kompromisseihin.
Failure is simply the opportunity to begin again - this time more intelligently.