Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.
Anvil

Anvil

Medlem
  • Registrerad 2003-10-26
  • Senast aktiv 2009-05-11
  • Antal inlägg 94

Foruminlägg

De senaste inläggen Anvil har skrivit i forumet.

  • Medlem
  • 2005-07-21 11:52
Ursprungligen av akesson:

Power kommer inte från PowerPC. PowerBook introducerades långt innan det fanns några maskiner med PowerPC-processor.

På PowerMac gör det det.

  • Medlem
  • 2005-07-21 11:50
Ursprungligen av Macus:

Jag har själv svårt att förlika mig med att ett grafikkort till Macen är 3-4 gånger så dyrt som till PC.

Jag hoppas att övergången till Intel innebär att vi slipper betala överpriser för ATI- och Nvidia-baserade grafikkort i fortsättningen.

"Överpriserna" beror på att det imånga fall krävts modifieringar av korten pga Macens Openfirmware; ROM chippen på grafikkorten behöver/behövde vara större för att få plats med dom FCode drivrutiner som firmwaren läser in för att initializera kortet, på x86 grafikkort ligger det en liten snutt x86 kod istället; det hadde varit fullt tekniskt möjligt för apple att skriva en liten begränsad realmode x86 emulator för att stödja x86 grafikkort.
Det gör man tex på Pegasosens SmartFirmware.

Men dom höga priserna bör sjunka nu när Apple backar även från OpenFirmware (vilket dom flesta är överens om är överlägset en BIOS), men som sagt Apple har valt bort OpenFirmware nu.
Hurvida det blir BIOS eller EFI återstår att se; utvecklings intelmacarna har en vanlig BIOS iallafall.

  • Medlem
  • 2005-07-21 08:47

Apple har ju registrerat MacTel så vi får väl se om det blir det nya namnet.
( http://tess2.uspto.gov/bin/gate.exe?f=doc&state=240ie8.2.1 )
Men det är ju inte säkert det kommer användas för det, utan kan vara av den anledningen att Apple vill hindra företag från att bygga en dator som kallas "Mactel" och kan förväxlas med Macintosh.

Att fortsätta med Powermac/book osv känns lite konstigt nu när "Power" kom från PowerPC:n, men samtidigt är det ett inarbetat namn.

  • Medlem
  • 2005-07-21 08:44
Ursprungligen av crownswe:

Få tillverkare och höga priser är helt klart att föredra framför många tillverkare och instabila hårdvaruplattformar. Det är vad jag uppskattar med Mac, Pegasos, Sun etc.

Ja för pegasosen har ju inga problem.... ;P

  • Medlem
  • 2005-07-21 08:41
Ursprungligen av acke:

Jag menar inte lekprogram utan riktiga program. Vilka är det som inte funkar och inte kommer att bli uppdaterade?

Motsvarigheter kommer det alltid finnas, största problemet är om man har mängder med dokument skapade av program X och program X inte fortsätts stödjas på den nya platformen av olika anledningar.
Just i det här bytet ska det dock inte vara några större problem, Rosetta kommer kunna köra dom flesta "användar" program, såvida dom inte är väldigt lågnivå och kräver kärntillägg för att fungera.
Sedan finns det givetsvis program som inte kommer fungera pga dom är hårtknutna till altivec; tex VST plugginen Altiverb som är ganska populär. Men det finns som sagt motsvarigheter, och ivissafall är erbjuder konkurrerande företag "cross grade" rabatter om man blir tvingad att köpa ett helt nytt program för ändanmål X.

Classic kommer ju inte stödjas på Intel Macar, men samtidigt är inte det något större problem då både Basillisk II (för 68k emulering) fungerar helt felfritt idag.
Och sheepshaver (för PowerPC emulering) även det fungerar riktigt bra på x86 (kan köra upp tom MacOS 8.6 har jag för mig).
Det stora problemet är ifall man har PowerPC program som är riktigt tunga beräkningsmässigt, för Rosetta kommer inte fungera bra med sådana program, Office osv ska gå riktigt fint vad jag hört från dom som använt Rosetta i person (jag har själv inte haft möjlighet att testa det än).

Andra saker som kanske många tar som självklara nu är Default Folder X, WindowShade X Audio Hijack osv kommer inte fungera med Rosetta utan kommer kräva uppdateringar och om dom kommer eller inte återstår att se.

  • Medlem
  • 2005-07-21 08:23
Ursprungligen av Olle@mac:

Bytet till Intel är inte märkvärdigare än när en bilförsäljare byter underleverantör - det hade varit super-duper-klumpigt att inte använda det som är bäst vid en viss tidpunkt, att klamra sig fast vid något som inte håller måtten hade varit grovt tjänstefel. Med andra ord, ta av skygglapparna, gilla läget, står man still i utvecklingen så blir man obönhörligen överkörd.

Först och främst du kan inte jämföra det här med en bilförsäljare överhuvutaget; förövrigt hade det varit riktigt spektakulärt om en Saab handlare heltplötsligt börjar sälja Opel istället; så det är inte alls så bagatellartat du försöker påstå.
Apple har marknadsfört PowerPC:n aggressivt och samtidigt idomflesta kampanjer genom att smuts kasta x86an och använda det som en hävstångseffekt för att få PowerPC:n att skina ändå mer.
Sedan för att göra en 180 graders sväng och nu prisa existerande x86 produkter.
Det är det många reagerar på...

Sedan om du är aningen tekniskt insatt idagens processorer så skulle du se att det inte är så svart och vitt som Apple vill få det att låta som.
PowerPC och x86 är rätt likvärdiga idag; och förmodligen i många år framåt om nu IBM väljer att fortsätta trycka utvecklingen framåt på PowerPC:n vilket inte är självklart efter som dom har POWER serien också (som visserligen är PowerPC mer eller mindre idag).

Jag och många andra är mycket väl medvetna om att Apple har gjort sitt val nu.
Men att det skulle vara pga undermåttlig hårdvara för en viss "tidpunkt" finns det inget som tyder på alls; det är något som man kan säga för att lättare få folk att lättare "ta av skygglapparn" och acceptera läget; hjärntvättning eller steve jobs reality distortion field som det också kallas.
( http://en.wikipedia.org/wiki/Reality_distortion_field )

Men absolut PowerBook G5 har inte inträffat, men samtidigt så är frågan om G5 hade varit bäst för PowerBook överhuvudtaget; G5:an hade/har egentligen inte mycket att erbjuda för portabelt bruk; undantag den betydligt snabbare FSB:n (2:1 / 3:1) tillskillnad från G4:ans max 167Mhz.

Sedan att tillägga dom flesta företag byter underleverantörer av ekonomiska anledningar; sedan är det inte alltid till något kvalitetekniskt bättre; men ofta kvalitetsmässigt likvärdig produkt.
Sedan bör man tillägga att naturligtvis är det uppenbart ekonomiska vinster ibytet; Jag vågar inte ens räkna på vad detta byte kostar totalt; allt från att ha dubbla system igång, licensering av kompabilitetsmjukvara, omdesign av mängder av produkter.

Jag vet inte, men jag tror att detta betyder att Apple lägger ner mycket av sin egna chip och hårdvaru tillverkning och förmodligen som i utvecklings intelmacarna, köper något färdigt moderkort eller dyl. Men det är bara vad jag tror, det ska bli intressant att se.

  • Medlem
  • 2005-07-21 01:55
Ursprungligen av DrBoar:

68040 halkade först efter 486 som gick up till 100 MHz om jag minns rätt, även 68030 som var riktigt bra i början fick vara med på tok för länge. Som i PB 150 en 33 MHz CPU då PC användarna lämnade 486an i sina notebooks för att använda pentium...

Fast en gån i tiden väckte även 68LC040 ett våldsamt habegär. Då hade jag en LCII och jämfört med den var LC475 en fantastiskt snabb liten sak

486 var aldrig snabbare än 33 Mhz, däremot hade man ett klock dubblingstrick som man använde för marknadsföring och kallade det DX2/DX4 vilket var lite dyl DDR, den egentliga hastigheten var bara 33Mhz resp 25Mhz , 33 * 2 = 66Mhz = 486 DX2 66Mhz, 25*4 = 100Mhz = 486 DX4.
Ivissafall kunde denna klockdubbling utnyttjas, men framförallt var det en strömsparsåtgärd; och som många vet så hade x86an väldigt få register på den tiden så det var svårt att hålla allt jobb inom processorn (det dubbel/quadra klockade området).

68040 var en riktigt stark processor för sin tid, 68060 var ändå starkare (och kunde klå 601/603 PowerPC utan problem när den lanserades) men som sagt den saknade vissa funktioner som användes flitigt i mac program vid den tiden så apple valde att inte använda den.

---

Vad det gäller IBM och lägga ner pengar på utveckling av PowerPC:n, så är inte Apple dom enda som använder den processorn, så IBM gör inget ogjort arbete, däremot är det få som varit så krävande som apple varit.
Men hur som helst vi vet inte vart det här slutar än. om några år kanske Intel är trött på Apple eller vice vera, vad jag mest är lite orolig över just nu är hurvida Intel ska lyckas hålla sin roadmap denna gång, dom har ju en historia av att ha något för optimistiska roadmaps; men samtidigt är dom väldigt tekniskt kompetenta och lyckas föra utvecklingen framåt iallafall även om det inte alltid blir på det sätt dom från början tänkt sig.

  • Medlem
  • 2005-07-20 05:31
Ursprungligen av DrBoar:

Men oftast har Apple legat efter (G4 missfostret) och den klena 68040 och många andra exempel.

Klena ?

Blandar du ihop 68040 med 68LC040 nu ?

  • Medlem
  • 2005-07-20 05:26
Ursprungligen av bollman:

Man kan ju säga vad man vill, men jag tror inte att OSX numera har framtiden för sig. Problemet kommer bli att fler och fler utvecklare lämnar OSX. .NET är vad jag har sett hittills ett ofantligt mycket bättre utvecklingsverktyg än XCode. Om man nu kommer kunna köra Windows på sin mac, varför lägga massor av pengar på att utveckla 2 programvaror? Javisst, det blir enkelt att porta PPC->x86 om man använt XCode innan, men det blir inte ett skvatt enklare att gå från .NET->XCode.

Ja det återstår att se, det är ett jäkla liv på codewarrior mailinglistan nu med åtskilliga företag som överväger att flytta över all verksamhet till windows, men samtidigt får man tänka på att även fast det kommer försvinna företag (för det är det ingen tvekan om det finns massor företag som lagt ner flera hundra man timmar på att optimera specifikt för altivec som nu blir värdelöst.; och just en sådan optimering kan vara anledningen till att just deras produkt är framgångsrik.) så kommer det säkert komma en hel del nya företag också till macos.
Men viss lever apple ett farligt spel när dom håller på att ändra om i architekturen helatiden.

---

PowerPC bättre eller sämre än x86? båda har för och nackdelar det finns inget chip som är bra på allt.
Jag tror största anledningen till att Apple blåste upp PowerPC:n som så överlägsen i slutet av 90 talet osv var framförallt av den anledningen att MacOS var så tekniskt underlägset så man var tvungen att försöka lyfta upp hårdvaran istället.
MacOS X kan mäta sig med alla konkurerande system idag; så man försöker nog tona ner det lite nu.
Men visst är det en ren katastrof för vissa brancher, framförallt forskningsbranchen nu då BLAST var hyperoptimerad på PowerPC, många universitet och forskningsprojekt köpte in Macar av bland annat den anledningen.
Sedan kan man ju inte längre skryta om hur effektiv ens dator är i distributed.net

  • Medlem
  • 2005-07-19 08:43

Jag ser att flera gånger så har det dragits upp frågor om Microsofts, Nintendo och Sony tv-spels processorer, man måste ha klart för sig att dessa processorer är mer eller mindre färdigutvecklade idag; ett TV spel upgraderas inte på samma sätt som en dator gör.
Det kommer förmodligen sitta exakt samma processor i dom PS3:or som släpps 2006 som dom PS3:or som släpps 2010.
Därför måste man vara väldigt förutseende när man gör konsol hårdvara; teknologin måste hålla länge; och framåt slutet så börjar den hårdvaran vara ganska sliten, en PS2 idag är inte speciellt märkvärdig ijämförelse med en modern PC; det var den däremot 1999/2000 när den släpptes.

Men detta är bara en del, anta någon säger varför gör inte dator tillverkare likadant ?
Om nu the cell är så otroligt kraftig som officiella siffror säger ? (256GFlops för cell processorn jämfört med ca 7-8 GFlops för en modern G5)
Problemet med dator processorer är som alltid baklängeskompabilitet, cell kan visserligen köra äldre program; men då är det för det första bara PowerPC delen som kan utnyttjas den är väldigt svag i cell processorn, den är avsedd som kontroller för DSP delarna av processorn snarare än "huvudprocessor", det andra är att PowerPC delen är väldigt strippad och saknar vissa optimeringar som alla "konsument" PowerPCs har, en G5 kan köra program skrivna för G4:an mycket bra, dock inte lika effektivt som G4:an själv, Cell skulle köra dessa väldigt väldigt dåligt för den kan inte reorganisera instruktioner för att fylla pipelinen överhuvudtaget, hastigheten idagens processorer får man ut genom att parallelt bearbeta flera instruktioner, det är där pipelining kommer in i bilden.

Som exempel (väldigt förenklat)

[Instruktionskö]->[Instruktionsavkodning och Bearbetningssteg]

Denna processor tar en instruktion ur instruktionskön, avkodar denna och repeterar sedan processen. Denna processor kan bara behandla en instruktion åt gången, idag är det väldigt få processorer som gör på detta sätt, undantag vissa lågpris "dator på ett chip" processorer (fast även dom kan ha en mer modern metod, AVR processorerna har pipelining har jag för mig.)

en modern processor ser ut mer så här

[Flyttalssteg]
[Instruktionskö]->[Instruktionsväljare] ->[Instruktionsavkodare] <- [Heltalsteg] -> [Kompletteringssteg]
[Vektorsteg]

Denna processor försöker plocka alla flyttals instruktioner den kan från instruktionskön och skicka dessa till fylttalssteget, samtidigt som den försöker hålla heltalssteget igång, och även vektorsteget på dom processorer som hanterar detta. Detta gör att såvida inte instruktionerna är direkt relaterade tillvarandra, alltså måste operera på resultatet av föregående instruktion kan processorn bearbeta flera instruktioner samtidigt, så en heltals instruktion och en flyttalsinstruktion kan tekniskt behandlas samtidigt, på detta sätt får man 200% bättre prestanda helt automatiskt om man skriver programmen på ett relativt smart sätt.
Men även om det inte är helt perfekt skrivet kan processorn tillvissdel optimera underkör tid genom att plocka ur instruktionskön, detta kan inte cell göra på samma sätt, den förväntar sig helt enkelt (som ex.) en heltals instruktion följt av 2 flyttalsinstruktioner helatiden om den inte får det går tex flyttalssteget tom och det är inte svårt att se att om man bara kan hålla ett av stegen aktiva helatiden så blir alltså prestandan endast 33% av en processor som skulle klara detta.
Så säg nu att cell som förnärvarande är klockad 3ghz har jag för mig, skulle vara direkt jämförbar med en G4 hårdvarumässigt, det innebär alltså ett program som inte är perfekt skrivet för cell säg den lyckas hålla 2 steg aktiva hela tiden, skulle endast gå med 66% av hastigheten, vilket om processorerna vore direkt likvärdiga skulle motsvara prestandan av en ca 2.1ghz G4, alltså har man "tappat" 1ghz (nu går det inte räkna exakt så här, men det är väldigt förenklat för att själva grund anledningen ska vara klar
Sedan har cell även en del andra optimeringar som är borttagna (efter som den inte behöver köra "legacy" powerpc kod, finns det ingen anledning att ha kvar dom iallafall) vilket skulle dra ner prestandan yttligare. jag har dock inte sett några exakta data på den här processorn än så hur mycket teoretiskt går inte svara på än, men jag skulle gissa på att hastigheten skulle ligga runt 50-60% av PowerPC delen på cell.
Men som sagt cell handlar mest om DSPerna och dessa kräver special skriven kod, och kan där med inte användas av äldre program iallafall.
(Det är liknande med Playstation 2 faktiskt, den har en MIPS r5900 som kontroller, sedan två vektor enheter; MIPSen själv är föga imponerande, däremot vektor enheterna är riktigt imponerande, även idag. på många saker slår dom lätt altivec och ändå är PS2:ans processor betydligt lägre klockad än dagens PowerPC, men som vi vet prestanda och klockfrekvens är inte direkt relaterade)

Detta är alltså varför PS3, XBox 360 eller Revolution processorerna inte är aktuella eller intressanta för en framtida mac.
----

Sedan håller jag helt med om att det är imponerande hur många runt om på diverse forum skrev med stora bokstäver att man är dum ihuvudet om man tror på rykten att apple skulle gå Intel,
sedan några dagar efter var det hur självklart som helst; och dom som tror på powerpc:n behöver mentalvård.
Att sedan Intel macen är snabbare på många delar är inte alls så konstig, macos x ÄR inte på något sätt PowerPC vänligt på lågnivå idag. däremot är det väldigt mycket optimeringar på högre nivå; speciellt grafiksystemet är riktigt väl optimerat isynnerhet efter Tiger.
Men på systemnivå är det rent av ett under att det går så bra som det gör ändå, "MacOS X är 100% PowerPC nativt" är inte alls sant, som exempel så bygger hela ABI:t på pc relativ addressering vilket PowerPC:n inte hanterar (precis som många andra RISC processorer, så har man ett begränsat antal addresseringsmöjligheter, vilketförövrigt är en av anledningarna till att det just är en RISC processor).
Så man är helt enkelt tvungen att simulera PC relativ addressering, och detta är naturligtvis inte gratis, man får alltså låtsas man hoppar till en funktion sedan kollar man på länk registret för att få aktuell PC, detta skrivs i PowerPC Assembler (tex)

bl func; // bl *+4
func: mflr r3; // mflr r3

det ser inte så kostsamt ut när man bara ser två instruktioner så här, men processorn var aldrig byggd för att uppdatera länkregistret sedan direkt kopiera innehållet till ett annat register, därför orsakar detta ett stall vilket iprincip gör att kombinationen motsvarar ca 3-5 instruktioner beroende på processor.
Det låter igen inte alls så märkvärdigt, men man bör tänka på att detta händer varje gång en funktionanropas, man addresserar en global variabel osv. den som programmerat vet nog att det ganska snabbt summeras till en större summa.
Det går inte säga något exakt värde efter som det beror lite på program till program, men straffet av detta gör att genomsnitts mach-o programmet är ca 15-30% långsammare än exakt samma program i CFM/Pef (vilket var ett filformat gjort specifikt för PowerPC:n)
x86:an däremot (förövrigt är det inte alls konstigt att Mach-O är pc relativt NeXT Step kördes först på 68k processorer (även dom CISC, vilka hade pc relativ addressering); senare även på x86 och samma sak där.
Därmed får Intel MacOS X automatiskt en viss prestanda boost bara av för det här problemet försvinner, och visst är det positivt.
Och bara för att dra en parallel det konstiga var att apple valde att göra detta; och inte skriva om Mach-O ABIt för PowerPC:n vilket visserligen skulle kräva en hel del jobb, men samtidigt skulle systemet tjäna oerhört på det ihelhet. Men istället så valde man att ignorera problemet senare även försöka lösa det genom att lägga till -mdynamic-no-pic till gcc, vilket löser det tillviss del men endast för applikationer, inte för bundles eller frameworks vilka tyvärr alla program i större eller mindre utsträckning; men tillbaka till ämnet: det intressant är att när Motorola släppte sin 68060 (efter följaren till 68040) så valde apple att inte gå på den processorn just av den anledningen den saknade post update instruktioner (har jag för mig), vilka många program utnyttjade väldigt flitigt.
Men som sagt när det var tal om OS X valde man ignorera problemet och "emulera" den saknande funktionaliteten på bekostnad av prestanda. det är lite märkligt tycker jag...
Men samtidigt som sagt swichen är knappast något Apple kom på i våras. Jag läste förövrigt för ett tagsedan en artikel från en föredetta apple anställd som berättade om deras MacOS 7 för Intel projekt, så Apple har nog funderat på detta länge. men samtidigt så känns det som sagt att man slog undan benen på sig själv hela tiden genom att smutskasta x86an.

  • Medlem
  • 2005-07-17 15:43

Anledningen till långa pipelines är inte värmeutvecklingen isig utan dom läckströmmar som uppstår om man lägger allt för snabba ledningar precis brevid varandra. även om det absolut påverkar och resulterar i högre värmeutveckling.

  • Medlem
  • 2005-07-13 07:06
Ursprungligen av star-affinity:

Ringarna kräver att grafikkortet stöder Core Image:
http://www.apple.com/macosx/features/coreimage/

Någon som märkt om Quartz 2D Extreme är aktiverat förresten?

Det är inte aktiverat.

---

Fred smidigaste sättet att kolla är att starta Quartz Debug; på iconen idockan står det QX2D om det är aktiverat. och QX om Quartz Extreme är igång.

  • Medlem
  • 2005-07-13 07:06
Ursprungligen av Adrian B:

Inga negativa rapporter än så länge? Man är ju sugen på att köra in det direkt, men sunt förnuft säger att man ska vänta en dag åtminstone...

Det har rullat på bra här förutom det första jag välkomnades av under omstarten efter installationen var en kernel panic.
Men efter yttligare en omstart har allt fungerat.

Jag är dock besviken att ingen av dom buggar jag rapporterats har blivit fixad; Men får väl hoppas dom kommer i 10.4.3...

  • Medlem
  • 2005-07-12 23:17
Ursprungligen av jazzper:

Återigen så motsäger du dig själv kommer du ihåg vad du skrev tidigare?

"Sedan kan du även fråga dig vad är skillnaden på musikbolag och musikförlag ? inget alls"
Om det nu inte är någon skillnad varför existerar de olika typerna av musikbolag då? Och varför finns det mängder av skivbolag inspelningsbolag/produktionsbolag och musikförlag som bara ägnar sig åt det som deras namn antyder?

Ta gärna med hela raden så kontext med följer, att bara rycka ut något ur sammanhanget är tvivelaktig debatteringsteknik.
"Sedan kan du även fråga dig vad är skillnaden på musikbolag och musikförlag ? inget alls, EMI, Sony osv sköter allt från inspelning till utgivning, därför är det direkt lämpligt att dra paralleller till verksamheterna." är hela meningen. Men ok det kanske var olämpligt sagt; det jag försökte förklara men som tydligen inte gick fram var att dom förlag som får störst del av ersättningen är dom som sitter på kända artister; dom som har störst marknadsandel, dessa driver både bolaget och förlaget, är det bättre förklarat ?

Citat:

Slutligen de flesta av SMFFs medlemmar ger inte ut skivor.

Dom flesta sitter inte i riksdagen heller; innebär det att folket har större makt än dom som bestämmer ?
Återigen som jag sa dom stora företagen är representerade på "båda sidor" (men jag föredrar fortfarande att säga att dom är en och samma sak efter som det endast är en logisk delning mellan dom, precis som skanova och telia; juridiskt olika företag praktiskt en och samma sak)

Men nu tar jag kväll, ha en fortsatt trevlig kväll för er som stannar uppe.

  • Medlem
  • 2005-07-12 21:55
Ursprungligen av jazzper:

Men snälla Anvil du har ju gång kommit med påståenden som i princip helt saknar grund vilket tydligt visar att din kunskap om Stim och musikbranschen inte är särskilt djup. Det är inget personangrepp utan ett konstaterande.

Och återigen kan vi konstatera att du fortfarande inte har någon fakta att referera till utan endast din "brillierande kunskap i ämnet", jag sa jag inte skulle svara på dina poster mer; detta är det enda undantaget för du uppenbarligen gör exakt samma ska bara minuterna efter jag skrev inlägget.
Detta ÄR ett konstaterande.

---

Sedan har jag nu efter lite letande hittat följande lista över musikförlag.
http://www.smff.se/forlagslista.html

Vilka är inte representerade där om inte EMI, Sony osv vilket vad var jag påstod; att många av företagen agerar både bolag och förlag.

Sedan från Svenska Musik Föreläggares Förening, har du här förklaringen på vad ett musikförlag är

http://www.smff.se/omforlag.html

"Vad gör en Musikförläggare egentligen? Finns det någon anledning att förlägga musiken? Svaren på dessa frågor är lika många som det finns Musikförlag därför att svaren beror på varje Musikförläggares kreativitet och kontaktnät och hur förläggaren väljer att arbeta. Olika typer av repertoar kräver olika sorters insatser.
Gemensamt för alla Musikförläggare är att deras viktigaste uppgift är att förmedla musiken från upphovsmännen till publiken. Ibland direkt till publiken och ibland via musikanvändare som i sin tur förmedlar musiken till publiken. "

Notera speciellt Ibland direkt till publiken vilket var det du absolut hävdade dom inte gjorde, eller har jag fel?