Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.

Begränsningar i Moores lag - förklara gärna!

Tråden skapades och har fått 16 svar. Det senaste inlägget skrevs .
1

Hittade detta stycke på Wikipedia - vore intressant med en diskussion kring naturens gränser för processorer och minnesmängden i datorer:

Although we'd all like Moore's Law to continue forever, quantum mechanics imposes some fundamental limits on the computation rate and information capacity of any physical device.

In particular, it has been shown that 1 kilogramme of matter confined to 1 litre of space can perform at most 1051 operations per second on at most 1031 bits of information [see Seth Lloyd, "Ultimate physical limits to computation." Nature 406, 1047-1054 (2000)].

A fully populated 128-bit storage pool would contain 2128 blocks = 2137 bytes = 2140 bits; therefore the minimum mass required to hold the bits would be (2140 bits) / (1031 bits/kg) = 136 billion kg.

To operate at the 1031 bits/kg limit, however, the entire mass of the computer must be in the form of pure energy. By E=mc², the rest energy of 136 billion kg is 1.2x1028 J. The mass of the oceans is about 1.4x1021 kg. It takes about 4,000 J to raise the temperature of 1 kg of water by 1 degree Celsius, and thus about 400,000 J to heat 1 kg of water from freezing to boiling.

The latent heat of vaporization adds another 2 million J/kg. Thus the energy required to boil the oceans is about 2.4x106 J/kg * 1.4x1021 kg = 3.4x1027 J. Thus, fully populating a 128-bit storage pool would, literally, require more energy than boiling the oceans.

  • Medlem
  • Hemmesdynge
  • 2007-06-06 23:14

Antalet atomer i universum antas vara mellan 4e78 och 6e79.

Jag tolkar det som att fysiska begränsningar i processorutveckling existerar och att förr eller senare kommer det rasande tempo vi ser idag ebba ut.

Enligt texten ovan verkar det framgå att vi aldrig kommer få se en 128-bits dator som fullt utnyttjar den teoretiska maxgränsen för internminne eftersom energin som krävs för att driva minnet skulle överstiga kraften som behövs för att koka alla världens hav?

Hur mycket är egentligen 2137 bytes?

  • Medlem
  • 2007-06-07 10:11

Jag skulle bli glad om man slutade hetsa om snabbare datorer och gjorde lite smartare program istället. Programmen har ju blivit långsammare i takt med att datorerna blivit snabbare, ofta så till den milda grad att vi t om har backat i hastighet. Det största hoppet i prestanda vi kommer se snart är nog när hårddiskar försvinner helt. De kan nog inte bli så mycket snabbare än de är.

21e 37 bytes. Hmmm... det kan vara svårt att få.en bra uppskatting på på stora tal, utan att det blir för abstrakt. Säg att du räknade 10 bytes per sekund, i ett år (10byte x 60s x 60min x 24h x 365d=) så blev det 315 miljoner byte. Om du började räkna 14 miljarder år sedan (mer eller mindre sedan big bang), så blir det 4,4e18 byte. För att räkna till 21e37, så måste du räkna 4,8e19 gånger universums nuvarande ålder. Aj... nu blev det abstrakt igen...

Största problemet just nu verkar vara att man har kommit ner på en sådan liten storlek på transistorerna i processorerna att man har alvarliga problem att bli av med värmen som skapas när man kör dessa frekvenser och att det "läcker" elektroner mellan kretsar som det inte skall vara förbindelser mellan (sk. quantum tunnelling).

Men som Moore sade själv 2005:

Citat:

In terms of size [of transistor] you can see that we're approaching the size of atoms which is a fundamental barrier, but it'll be two or three generations before we get that far—but that's as far out as we've ever been able to see. We have another 10 to 20 years before we reach a fundamental limit.

stfm: Någon riktigt bra optimering av programvara tror inte jag på förrän vi har slagit it "processor-fart-taket". Tills detta sker så kommer det vara enklare att köpa 4 (8, 16, 64) kärnor till... och ansluta sig till Stockholms havsvattendrivna fjärrkyla nät...

  • Medlem
  • Uppsala
  • 2007-06-07 18:42
  • Medlem
  • 2007-06-07 19:49

Att öka antalet processorer kommer inte ge den uppsnabbning man kan hoppas på.
Om man tänker att jobbet på en processor tar t tid och att 1/100 av t inte går att göra parallellt dvs sådant som måste köras i serie.
dvs: då cpu->oändlighet så tar den totala körtiden 1/100 t fortfarande.
I själva verket torde det vara svårt att hitta så bra algoritmer som kan parallelliseras så mkt att man kan göra riktig dunder vinst på att plugga i väldigt många processorer.

Om man sedan börjar fundera på hur långt ljuset rör sig på en klockcykel förstår man att man har problem.
3Ghz är väl ung där de snabbaste cpuerna är klockade nu och lämpligt nog gör ljuset typ 299 792 458 m / s
Hur långt hinner då ljuset flytta sig på den tiden som en klockcykel tar?
En klockcykel tar alltså ca 1/3*10**9

dvs att sträckan blir:
299792458.0/1.0/(3*10**9)
≈ 0,099m ≈ 1dm.

1dm kanske det inte är på chippet men hur kommunicerar du på ett snabbt sätt med minnen som kan vara flera dm bort?

Att lösa problem snabbt handlar mer om att hitta effektiva algoritmer där det går, men det är ju långt ifrån alla problem som går att snabba upp många problem är beviserligen NP-svåra och kommer aldrig att få bra algoritmer (iaf inte sådana som körs på vad vi kallar dator idag..).

Man kan faktiskt börja fundera på varför man behöver ha snabbare CPUer innan man löst alla andra flaskhalsar..

Gränsen torde vara med informationsmängden en elektron, längre har man nog svårt att tänka sig, men det har man sagt förut.

Prototypen

Ett bra inlägg i denna debatt på O'Reilly.
http://radar.oreilly.com/archives/2007/06/the_faint_signa.html

  • Medlem
  • Malmö
  • 2007-06-07 21:32

Oupptäckta material är vad som behövs...

Jag läste någonstans om att man skulle ersätta kisel med unobtainium...

Ursprungligen av bjelkeman:

Jag läste någonstans om att man skulle ersätta kisel med unobtainium...

Då är ju alla problem lösta ;p

Ett bra bevis på hur bra unobtainium kan för övrigt ses i dokumentärfilmen The Core.

Nu en lite mer seriös infallsvinkel. Som pawh sa ovan så är ju frågan hur mycket man ens tjänar på att öka processorhastigheterna så mycket mer. Borde man inte tjäna mer på att lägga allt krut på kommunikationen med de andra komponenterna? RAM-minnen och hårddiskar måste väl utgöra de största flaskhalsarna?

Den som någon gång gjort en RAM-disk vet ju hur mycket snabbare det går än att använda hårddisken.

  • Medlem
  • Göteborg
  • 2007-06-07 22:28

Björnström, det har nog blitt nåt knas med formateringen, 2^137 ska det vara.
Men eftersom a^b = c^(b*logc(b)) och log10(2) =~ 0,3 så kan man multiplera exponenten med 0,3 för att få det i bas 10.

Det blir då 10^41, dvs en etta och 41 nollor. Det är alltså helt vansinnigt mycket och egentligt är det väl dumt att ens försöka sätta det i perspektiv. Men om man delar upp jorden i 10^41fyrkantiga bitar så kommer varje bit att vara 0,2 tusendelar av en millimeter stor.

  • Medlem
  • Hemmesdynge
  • 2007-06-08 08:31

Att använda solid state istället för hårddiskar snabbar ju upp en dator, men det handlar ju egentligen bara om att ge processorn tillräckligt mycket "input" så den kan jobba med max hastighet hela tiden utan att behöva vänta på indata, den egentliga databehandlingsprocesen blir ju inte snabbare för det.
Ljusets hastighet är faktiskt den variabel som tidigast kommer att stoppa utveckligen. Vad jag förstår har man ju redan nu problem med att olika delar kan komma i "osynk" bara på grund av avstånd inom kretsarna.

Ursprungligen av bollman:

Att använda solid state istället för hårddiskar snabbar ju upp en dator, men det handlar ju egentligen bara om att ge processorn tillräckligt mycket "input" så den kan jobba med max hastighet hela tiden utan att behöva vänta på indata, den egentliga databehandlingsprocesen blir ju inte snabbare för det.

Nä, det är klart att databehandlingshastigheten inte skulle bli snabbare, men för de flesta är nog inte databehandlingshastigheten ett stort problem. Om man slapp vänta på slöa söktider och swapptuggande hårddiskar så skulle nog rätt många vara nöjda ett bra tag. Men detta är ju för privat- och kontorsbruk, håller man enbart på med beräkningar så vill man nog ha fler GHz också.

  • Medlem
  • 2007-06-08 11:30

Problemet är att det inte kommer hjälpa med fler Ghz om man inte kan skicka in data från ramminnen in i processorn, man försöker ju lösa sådant med pipelineing och cachar som sitter så nära processorn som möjligt, men kan man inte fylla dem och ha rätt data i dem så görs ju ingen vinst.
Det är egentligen inte själva exekveringshastigheten som man vill öka utan genomströmmning av instruktioner per sekund. Iaf om man pratar om beräkningskraft.

Man kan nog tänka sig att inom en inte allt för lång framtid kommer hela system som i en kompakt kub där kretskort, minne osv sitter på höjden och bredden för att minska ledningsbanornas längd och på så sätt snabbare kunna hämta data.
Man vill gärna föreställa sig snabbare datorer som stora kylskåp, men jag tror att man behöver krympa datorsystemen till en så liten storlek som möjligt.

Sedan så är ju hårddiskar det långsammaste vi har i våra datorer, det har ju inte hänt så värst mkt på 30 år egentligen. Så om man vill öka hastigheten för ”vanliga” datorer så tror jag också på att försöka få bort de långsamma skivlagringsmedierna.

Det finns säkert mycket kvar att göra men naturen sätter ju gränser som är svåra att komma runt. Istället för att försöka öka klockfrekvenser och bygga vidare på vad man har tror jag att man behöver ändra sitt tänkande och fokusera mer på alternativa arkitekturer och tänka i helt nya tankebanor. Dessutom så ligger mycket i att fundera över nya och effektiva algoritmer, det är där man kan göra riktigt stora vinster.
Det känns som hela den här idéen med att öka antalet processorer är en väldigt kortsiktig fullösning för att se till att Moores lag fortsätter att gälla ett tag till....

Mitt försök till "Think Different" som utan tvekan är lite flummigt:

Är vi egentligen säkra på att det är tekniken och de fysiska begränsningarna som till slut kommer att sätta stopp? Eller kan det vara människans intellektuella fattningsförmåga som slår i taket först, så att vi inte längre kan föreställa oss mer komplicerade beräkningsuppgifter att mata hårdvaran med? Eller åtminstone inte kan åstadkomma mer komplicerade uppgifter som vi ser en mening i att beräkna?

Hoppas ni förstår min tankegång. Den verkar lite knepig att uttrycka på ett klart sätt.

Senast redigerat 2007-06-09 03:26
1
Bevaka tråden