- Stefan Swales
- Medlem ●
- Västerås
Okej det här angränsar väl till konspirationsteorier, men jag känner lite att ett bra tag nu (sen ungefär 800MHz G4) så har datorer egentligen varit tillräckligt snabba för i stort sett vad som helst som en vanlig medel-användare sysslar med. Det finns knappt nån anledning till att köpa nytt. Självklart försöker datortillverkare tuta i oss annat. Och de som programmerar verkar alltid kunna ge CPU'n onödiga uppgifter.
Jag brukar ibland sitta vid en 800MHz G4 (PowerMac) med 1GB minne och en bra hårddisk och jag förvånas alltid över hur liten skillnad det är mot att jobba på "dubbelt så snabba" datorer. Nu pysslar jag mest med Adobe Creative Suite, men tom. ganska tunga .psd går riktigt bra att jobba i. Och att göra PDF'er ur InDesign CS tar kanske någon sekund längre, men vad gör det? Hur många behöver egentligen CPU på mer än 1GHz? Och särkilt om program och OS skulle vara vettigare gjorda?
Jag vet att det finns undantag, t.ex. 3D-rendering och liknande som aldrig får nog med rå kraft, men hur många pysslar med sånt? Och om man spelar så är det väl bättre med en PlayStation i vilket fall?
Det jag pratar om är medel-Mac-användaren som pysslar lite med web, tryck och lite hobbies och surf.
Det som styrker det jag säger är att t.ex. Apple säljer mer på att hitta på nya funktioner och hindra en att uppgradera om man inte köper ny dator.
Eller börjar jag bli gammal helt enkelt? (Annalkande 30årskris)
Självklart så måste man avsluta med en smiley så att ni inte tar detta för allvarligt:
Som sagt, jag har skrivit tidigare på det här forumet om att det finns skicklig programmerare som kört sin Commodore 64 1mhz processor med 64 kilobyte RAM som webserver. Så du har helt rätt och detta gäller inte bara Apple utan datormarknaden i stort. Skulle man vilja så skulle man kunna optimera systemet något fruktansvärt men samtidigt tappa mycket av det grafiska osv... men jag är helt inne på din teori - det är ju ett konsumentsamhälle vi lever i.
Jag tycker i stort att du har helt rätt. Vanlig mail/surf/itunes behöver inte många MHz.
Det kan vara lärorikt att titta lite i Aktivitetskontrollen. Arbetar processorn långa stunder över 80%? Om inte är det väl ingen idé att höja processorns prestanda?
Ofta får man mer prestanda genom att köpa mer minne. Aktivitetskontrollen kan vara till hjälp även här, men tita då inte på hur mycket minne som är "oanvänt/ledigt" eftersom OS X hela tiden försöker utnyttja allt minne som finns. Titta istället på "sidor in/ut". Om dessa siffror rasslar mycket kan mera minne höja prestanda.
Däremot är det så att många MHz eller dual core kan göra att systemet känns "rappare" och blixtsnabbt reagerar på kommandon. Här använder man inte processorns kraft kontinuerligt, utan bara under några få millisekunder då man gjort ett kommando. Å ena sidan så spelar det väl ingen roll om fönstret man klickade på kommer upp efter 200ms eller 50 ms? Å andra sidan så känns ju datorn som levererar efter 50ms roligare, även om man inte sparar in mycket av sin arbetsdag...
Jag tänkte på det när Apple introducerade "Aperture". Min 1.2GHz G4 räcker inte.
Precis. Att inte kunna köra ett program bra utan att ha minst 2GHz G5 låter lite skumt tycker jag. 1.2GHz G4 lär väl ha kapacitet för runt 10 Gigaflop? Hur lyckas man göra ett program som inte kan köra på det? (iBook har iofs en rejäl flaskhals i hårddisken, men den går ju att byta)
Däremot är det så att många MHz eller dual core kan göra att systemet känns "rappare" och blixtsnabbt reagerar på kommandon. Här använder man inte processorns kraft kontinuerligt, utan bara under några få millisekunder då man gjort ett kommando. Å ena sidan så spelar det väl ingen roll om fönstret man klickade på kommer upp efter 200ms eller 50 ms? Å andra sidan så känns ju datorn som levererar efter 50ms roligare, även om man inte sparar in mycket av sin arbetsdag...
Det där håller jag med om. Känslan av "rapphet" är överskattad, och det som spelar roll är sådant som verkligen tar lite tid att utföra.
Men jag tror att även många konsumenter börjar skaffa sig vanor som kräver sitt av datorn. Då handlar det om att man har många saker på gång samtidigt. För mig räcker min 1 GHz PowerMac med 1,25 GB ram bra, men det händer ju att man sitter med ett par fildelningsprogram igång i bakgrunden, tittar på film och kanske konverterar sin nya skiva till aac i iTunes, eller något liknande. Till och med i det läget kan datorn kännas duglig, men lite mer fart skulle inte skada.
Något som i alla fall är skönt mad Apple, är att Tiger verkar snabbare och bättre optimerat än tidigare OS X. Så vad gäller operativsystemet så finns det ju ingen anledning att klaga. Windows verkar väl gå åt andra hållet?
Sedan är det väl en gammal och etablerad sanning, att på konsumentmarknaden är det mest spelen som driver prestandahetsen. Vissa föredrar konsoller, men andra spelar hellre på datorn. Det beror väl på vad man spelar för typ av spel? Jag har ingen större erfarenhet av att spela på konsoller, men jag har svårt att tänka mig att mina favoritspel som SimCity 4, Caesar 3 och Age of Empires skulle göra sig bra på en spelkonsol.
Om man bara ordbehandlar så finns det väl ingen anledning att köpa en ny dator. Om det inte vore för det trista skärmen, så skulle jag fortfarande kunna nöja mig med att köra Word under system 7-vad det nu var på min gamla PowerBook 145B, med processor på 25 MHz. Och jag har nyss sparkat igång en gammal Performa med 75 MHz här hemma och kopplat in den på nätverket. Den kör OS 8.5, men det systemet är segt på den hårdvaran. Internet Explorer 4.0 går riktigt segt på den. Men den skulle ju allvarligt talat vara onödigt snabb för ordbehandling med äldre ett system.
Skulle jag vilja byta ner mig från OS X och alla de program och spel jag kör på min PM G4 idag? Knappast…
Vad gäller Aperture, så håller jag med om att kraven verkar mycket märkliga!
iBooken har nog runt 7 GFLOPS, dosk måste programmet vara väloptimerat för att använda hela den underbara kraften.
Det ska bli rätt intressant att höra kommentarer om Aperture när det släpps - jag antar att många kommer att testa att installera det på hårdvara som ligger under kraven. Varför ska en bärbar dator med 1,25 GHZ G4 klara det, när minimikravet på en stationär dator är 1,8 GHz G5?
Det ska bli rätt intressant att höra kommentarer om Aperture när det släpps - jag antar att många kommer att testa att installera det på hårdvara som ligger under kraven. Varför ska en bärbar dator med 1,25 GHZ G4 klara det, när minimikravet på en stationär dator är 1,8 GHz G5?
Ett ord: Grafikkortet. Aperture använder sig i stor utsträckning av Core Image, som använder de enorma signalbehandlingsresurser som grafikchippet tillhandahåller så att processorn kan ägna sig åt annat. Nackdelen är bara att det behövs ett ganska rejält tilltaget grafikkort. Men förutom det verkar det också ganska cpu-intensivt också, så att köra det på en PB G4 1,25 borde bli ganska masochistiskt.
Så länge det är vanliga människor (vi) och inte högutbildade datatekniker som köper datorer så måste branchen ha ett lätt mätetal för prestanda, det blev klockfrekvensen på CPUn. I slutet av 90-talet skrevs artiklar om att snart var gränsen nådd, det skulle inte gå att höja klockfrekvensen, elektronerna skulle "köra av vägen". Men fortfarande får vi högre klockfrekvens. Vissa processortillverkare och datortillverkare försöker flytta fokus men lyckas dåligt.
Det finns många saker som behöver snabbas upp, systembuss, minne, hd mm. Fortfarande använder vi mekaniskt lagringsmedia som hårddisk. Kan man få ett nytt mätetal på prestanda kanske utvecklingen av dessa saker snabbas upp.
Så länge det är vanliga människor (vi) och inte högutbildade datatekniker som köper datorer så måste branchen ha ett lätt mätetal för prestanda, det blev klockfrekvensen på CPUn. I slutet av 90-talet skrevs artiklar om att snart var gränsen nådd, det skulle inte gå att höja klockfrekvensen, elektronerna skulle "köra av vägen". Men fortfarande får vi högre klockfrekvens. Vissa processortillverkare och datortillverkare försöker flytta fokus men lyckas dåligt.
Tycker tvärtom att de lyckats mycket bra med att flytta fokus, vartenda sweclockers-moppeyngel har väl vid det här laget lärt sig att en 1,6 GHz Pentium M är i klass med en P4 på >3 GHz, och de flesta konsumenter verkar vara totalt obrydda om vad deras datorer har för klockfrekvens så länge den inte "känns långsam" (läs: blivit nersållad med virus).
Sedan stämmer det i allra högsta grad att gränsen börjar vara ett problem; Intel har ju misslyckats ganska rejält med att komma upp i de 10 GHz de föresatte sig för P4:an, G5:an har också tagit myrsteg MHz-mässigt och AMD likaså. Det är framför allt därför vi sett så mycket annan prestandahöjande teknik tas fram - dual core, enorma cacheminnen med låg latency, SIMD-enheter och andra högpresterande applikationsspecifika kretsar (framför allt grafikchip), och mycket mer.
Så ser det ut på min planet iaf, kan dock inte uttala mig om hur det är på din.
Håller helt med om att det är en myt och att människor blivit helt fokuserade på snabb CPU, vilket faktiskt är ganska dumt i många fall. Jag har en dual 1,8GHz G5 PowerMac hemma och första året jag körde den så hade jag endast 1 GB RAM. Jag jobbar med väldigt många olika grafiska program bl.a. Ofta så brukar jag jobba med Photoshop, Illustrator, Flash MX, BBEdit, Transmit, Painter plus att jag vill kunna ha igång Mail, Safari, Firefox, Adium, TextEdit, Garageband, iTunes och Excel och vill kunna hoppa mellan programmen utan att behöva starta och stänga dem varje gång. Var ofta tvungen att stänga ner program för att frigöra mer minne så den inte började tugga från hårddisken, vilket gör datorn mycket långsammare och ger badbollar. Så för ett tag sen gjorde jag det smartaste inköpet på länge, dvs. 2GB RAM till.
Nu har jag 3GB RAM totalt och det går mycket smidigare att jobba nu, då minnet aldrig tar slut plus att man sparar tid på att aldrig behöva stänga ner eller öppna program när de alltid är igång.
RAM är helt klart den viktigaste hårdvaran att satsa på om man ska ha en dator som aldrig slöar ner sig!
Processorn är ju duglig för allt med sina 1,8 GHz och vill jag rendera filter i PS eller rendera feta frames i Maya så använder den ju dual och då får man ju ut nästan 3,6 GHz kraft och det är snabbt.
Mer RAM är nyckeln till ett lyckligare datorliv, tro mig!
Kommer inte ihåg vem som skrev det, men tror det var på OSNEWS...
Alla dagens datorer som ligger på ca 1GHz och uppåt har prestanda nog att klara vilka spel som helst.
Men eftersom kodarna som kodar spel och program ofta fuskar när kodar och tar genvägar så krävs det mer prestanda. Skulle alla gå tillbaka till ASM och lära sig arkitekturer du kodar mot så vinner du enorma mängder prestanda. Kolla bara på hur mycket man fick ut utav 68k CPUn. Amiga, Atari och Apple.
Tänker på VaCUm arbetsstation... Han har en Dual 450MHz G4 med 1GB RAM och ett ATI 9800. Den datorn är ju fullt tillräcklig som arbetsstation. Vad jag vet så använder VaCUm den datorn betydligt mer än sin AMD 3600+ PC som går i över 2GHz.
SingleCPUer tycker jag själv inte räcker till, men har du en dual behövs inte många MHz för att det ska gå bra. VaCUms Dual 450 är inge problem för effekterna i OS X Tiger. Dashboard vattenringarna etc.
Men jag håller med trådskaparen om att man inte behöver prestandan som finns.
Jag har en Dual 1,33GHz Powermac. Visst, rikligt med prestanda, jag kommer nog ha den relativt många år framöver. Men... Jag använder faktiskt min 1GHz 12" Powerbook mer. Den slösurfar jag på, jag skriver detta på, jag gör allt arbete på den.
Den känns lite långsam när jag tex öppnar iPhoto, därför powermacen finns
Som redan sagt. RAM gör mycket. Men det man inte får glömma bort är att hårddiskprestandan gör nästan lika mycket. Därför. Vill man rusta upp en gammal dator. In med en SATA-kontroller och kör några satadiskar.
Med mer kraftfulla processorer kan det bli möjligt att skapa bättre och mer användbara användargränssnitt. Utan en snabb grafikprocessor hade inte Exposé varit möjligt, utan snabba uppkopplingar hade man inte kunnat kolla på snygga filmer (eller en massa porr ) på nätet.
Vad gäller Aperture så är det såpass avancerat i sitt gränssnitt att det verkligen kräver en mycket modern dator. Det är också tänkt för proffs som lägger ut säkert 25000 kr på en kamera och mer än det dubbla på objektiv.
För interaktionsdesigners öppnar mer kraftfulla processorer för att införa bättre gränssnitt för att introducera fler kognitiva ledtrådar för hur information ska tolkas.
Med mer kraftfulla processorer kan det bli möjligt att skapa bättre och mer användbara användargränssnitt. Utan en snabb grafikprocessor hade inte Exposé varit möjligt, utan snabba uppkopplingar hade man inte kunnat kolla på snygga filmer (eller en massa porr ) på nätet.
Vad gäller Aperture så är det såpass avancerat i sitt gränssnitt att det verkligen kräver en mycket modern dator. Det är också tänkt för proffs som lägger ut säkert 25000 kr på en kamera och mer än det dubbla på objektiv.
För interaktionsdesigners öppnar mer kraftfulla processorer för att införa bättre gränssnitt för att introducera fler kognitiva ledtrådar för hur information ska tolkas.
Expose kunde varit lättare för grafikkortet om de hade skippat lite ögongodis och programerat det bättre. Jag tror abolut inte på att ett bra användargränssnitt behöver så värst mycket MHz.
Vad gäller Aperture så är det inte heller så värst avancerat att det ska behövas så mycket kraft. RAW-filer borde inte vara tyngre än t.ex. TIF. Däremot så håller jag med vissa andra inlägg här i tråden att hårddisk och RAM i många fall är flaskhalsar i systemen, och jag tycker det är konstigt att de säljer datorer där vissa delar av systemet är flaskhalsar i stället för att balansera upp dem, men det är ju en annan femma (7200 rpm hårddisk och 1GB RAM borde vara absolut minimum på såväl stationär som bärbar).
Expose kunde varit lättare för grafikkortet om de hade skippat lite ögongodis och programerat det bättre. Jag tror abolut inte på att ett bra användargränssnitt behöver så värst mycket MHz.
Vad gäller Aperture så är det inte heller så värst avancerat att det ska behövas så mycket kraft. RAW-filer borde inte vara tyngre än t.ex. TIF. Däremot så håller jag med vissa andra inlägg här i tråden att hårddisk och RAM i många fall är flaskhalsar i systemen, och jag tycker det är konstigt att de säljer datorer där vissa delar av systemet är flaskhalsar i stället för att balansera upp dem, men det är ju en annan femma (7200 rpm hårddisk och 1GB RAM borde vara absolut minimum på såväl stationär som bärbar).
Det är bevisat av både Löwgren och Stolterman, Winograd och flera andra forskare inom interkationsdesign: Mer kraft ger mer möjligheter för designern att modellera användarens konceptuella modell.
Vad gäller optimering av Exposé-koden ska jag inte gå närmare in på det men antar faktaktiskt att den är relativt väloptimerad.
Det är bevisat av både Löwgren och Stolterman, Winograd och flera andra forskare inom interkationsdesign: Mer kraft ger mer möjligheter för designern att modellera användarens konceptuella modell.
Vad gäller optimering av Exposé-koden ska jag inte gå närmare in på det men antar faktaktiskt att den är relativt väloptimerad.
Oj vilka fina ord du kan I vilket fall så räcker ju 1GHz bra redan nu för Tiger och Exposé om man har hyfsat skärmkort.
Oj vilka fina ord du kan I vilket fall så räcker ju 1GHz bra redan nu för Tiger och Exposé om man har hyfsat skärmkort.
Kan ännu fler fina ord.
Hur ska jag övertyga dig?
Det är bevisat av både Löwgren och Stolterman, Winograd och flera andra forskare inom interkationsdesign: Mer kraft ger mer möjligheter för designern att modellera användarens konceptuella modell.
Nja. Vad menar du att de har bevisat? Har du källan till det dokumentet, vore kul att läsa om hur de menar.
Det handlar väl till mycket större grad på hur duktig designern är snarare än hur kraftfull dator användaren har.
Användaren har väl inte någon konceptuell modell? Hon har en mental bild och designern har en konceptuell.
Handlar det inte ganska mycket om att hålla investerarna glada - man skulle iof kunna säga att nu har vi nått målet och sluta utveckla både datorer, procesorer etc. då kan man säkert sparka en massa tusen människor. Nu är det nog få människor som kan se långt in i framtiden och så länge striden om marknadsandelar finns kvar, ja så länge lär vi andra dra nytta av inovationerna. Oavsett var man befinner sig så styr kapitalet... kanske ska vi vara tacksamma för det - det står ju var och en fritt att kliva av racet
Handlar det inte ganska mycket om att hålla investerarna glada - man skulle iof kunna säga att nu har vi nått målet och sluta utveckla både datorer, procesorer etc. då kan man säkert sparka en massa tusen människor. Nu är det nog få människor som kan se långt in i framtiden och så länge striden om marknadsandelar finns kvar, ja så länge lär vi andra dra nytta av inovationerna. Oavsett var man befinner sig så styr kapitalet... kanske ska vi vara tacksamma för det - det står ju var och en fritt att kliva av racet
Utvecklingen stannar inte bara för att klockfrekvensen ligger på i stort sett den samma. Man skulle behöva utveckla mjukvaran mer i stället. Man kan få ut så mycket mer av den hårdvara som finns idag om man bara optimerade mjukvaran bättre, se bara på hur t.ex. komprimering av video och ljud har gått frammåt, och det finns mycket kvar att optimera.
Visst måste man kunna konkurrera och göra investerarna glada, och vem som helst kan hoppa av racet när han vill, men det är så frestande med nya funktioner. (Men jag skulle vilja få en GRATIS uppgradering från Apple någon gång, bara som en liten present för att jag varit så "duktig" och köpt vartenda operativ och iLife-version som funnits. Men icke. Varje lite ny funktion ska läggas i ett nytt dyrt paket som man måste köpa)
Man kan få ut så mycket mer av den hårdvara som finns idag om man bara optimerade mjukvaran bättre, se bara på hur t.ex. komprimering av video och ljud har gått frammåt, och det finns mycket kvar att optimera.
Jag kanske har fel men går inte detta "hand i hand"... ja att även om mjukvaran hade optimerats till 100% så hade den ändå inte kunnat körts på gårdagens procesorer, eller? Fast tanken kanske var att optimeringen skulle hinna ifatt hårdvarans prestanda, gärna för mig... kanske skulle folk sluta handla ifall mjukvaran och hårdvaran låg fas i fas... hmm.. kanske lite flummigt så strunta i mina rader
Jag kanske har fel men går inte detta "hand i hand"... ja att även om mjukvaran hade optimerats till 100% så hade den ändå inte kunnat körts på gårdagens procesorer, eller? Fast tanken kanske var att optimeringen skulle hinna ifatt hårdvarans prestanda, gärna för mig... kanske skulle folk sluta handla ifall mjukvaran och hårdvaran låg fas i fas... hmm.. kanske lite flummigt så strunta i mina rader
Jag tror programmerare tänker ungefär så här: "Om två år, när vårt program kommer ut, så kommer folk ha [superduper]datorer, så då utnyttjar vi det med en massa nya funktioner och effekter, så att vårt program ser fränt ut och säljer som smör och vi blir rika. Tjoho!"
Men man får väl köra med lite äldre program tills man köper ny dator. Det är ju bara att acceptera. Den här tråden var ju bara lite filosoferingar från min sida (mycket för att jag vill ha Aperture men då måste jag köpa ny dator också = surt).
Jag tror programmerare tänker ungefär så här: "Om två år, när vårt program kommer ut, så kommer folk ha [superduper]datorer, så då utnyttjar vi det med en massa nya funktioner och effekter, så att vårt program ser fränt ut och säljer som smör och vi blir rika. Tjoho!"
Jag tror snarare att programmeraren tänker ungefär så här: "Det var då f..n vad det går långsamt att kompilera programmet på den här ettochetthalvt år gamla datorn. Jag måste nog skaffa en ny superdupersnabb dator, och med större bildskärm dessutom." Och sen när han/hon testar programmet så flyter det på riktigt bra, och så gör det inget att det brer ut sig på skärmen heller.
Om alla som utvecklade program tvingades göra det på 400 MHz-datorer, 64 MB minne och en bildskärm på 640x480 pixlar, då skulle vi nog ha program som löper som skållade troll på de nya fina superduperdatorer som vi just köpt
Jag köpte en iMac 400 DV vintern 99-00 då den var ny och har hållt den vid liv så här långt trots att jag fortfarande sitter kvar med OS 9. Fast jag har "uppgraderat" till 9.2.2...
Man kan hoppa av tåget, men det får konsekvenser. (Fast jag har i och för sig inte "hoppat av", för "hoppa av" kan man väl bara göra om man har råd att ideligen köpa ny biljett och det har jag aldrig haft... )
Det som det märkts mest på är att det inte kommit några nya webbläsare. Det är väl det i princip. Nu kan jag ju köra Tiger på denna, så jag skulle ju utan alltför stor ekonomisk påfrestning kunna köpa det, men lidandet har ännu inte blivit alltför stort. Det mesta funkar bra och jag har efter nu drygt fem år på internet aldrig haft ett virus...
Ibland är jag sur för att Apple inte fixar sånt som ngt program för att hantera dwg smärtfritt, (kom inte med den där j--la betan, den är skit) för det mesta lever iMacen dock i högönsklig välmåga och efter att jag bytte till en Seagate 40 GB 5400 rpm är den dessutom tyst som ingen annan dator jag någonsin suttit vid.
Använder:
Photoshop 6, Ordbehandling, Internet, iTunes, DVD spelaren
Datorn går i genomsnitt 3-4 timmar per dag.
Jag spelar aldrig eller sällan.
Jag tror snarare att programmeraren tänker ungefär så här: "Det var då f..n vad det går långsamt att kompilera programmet på den här ettochetthalvt år gamla datorn. Jag måste nog skaffa en ny superdupersnabb dator, och med större bildskärm dessutom." Och sen när han/hon testar programmet så flyter det på riktigt bra, och så gör det inget att det brer ut sig på skärmen heller.
Om du bara visste vilka häckar vi programmerare sitter med. Vi får överta datorerna efter att cheferna och säljarna slitit ut dem...
Jag kanske har fel men går inte detta "hand i hand"... ja att även om mjukvaran hade optimerats till 100% så hade den ändå inte kunnat körts på gårdagens procesorer, eller?
Helt korrekt, om man exempelvis använder AltiVec eller -PPC64 flaggor när man skriver sitt program så fungerar det inte på äldre processorer.
Mats
Utvecklingen stannar inte bara för att klockfrekvensen ligger på i stort sett den samma. Man skulle behöva utveckla mjukvaran mer i stället. Man kan få ut så mycket mer av den hårdvara som finns idag om man bara optimerade mjukvaran bättre, se bara på hur t.ex. komprimering av video och ljud har gått frammåt, och det finns mycket kvar att optimera.
Borde man inte använda video som ett exempel som talar för motsatsen? Kalla in de HD-filmer som ligger på Apples QuickTime-sida. Bildkvaliteten har förbättrats enormt jämfört med tidigare codecs, men det har även kraven på hårdvaran. Det enda som kan sägas ha minskat är kraven på lagringsutrymme och bandbredd. I övrigt kan man ju ta en titt här: http://www.apple.com/quicktime/guide/hd/recommendations.html