- Modulation
- Medlem ●
- Malmö
Okej!
Jag är lite nyfiken på det här med Sound engines som man hör lite om då och då. och hur den ena är bättre än den andra ochsåvidare... (däremot är det absolut aldrig som jag sett någon säga Varför den dom säger är bäst är bäst)
Vad jag förstått så handlar det om att när ljud läggs ihop, digitalt, så måste de förståss alla kvantiseras ner och bli 16, 24, 32, 48 osv osv, Bitar på slutet.
och att algoritmerna som tar hand om hela den här processen är "sound engine"
Vad jag också funderat över, och undrar, är om Sound Engine är igång Hela tiden?
Alltså, låt säga att jag bara spelar upp Ett ljud i Cubase, används cubase Soundengine då? eller är det först när ljud läggs ihop?
Samma fråga fast fruityloops, sonar, logic, reason.
Hur funkar det på digitala mixerbord isåfall? är det en Soundengine där också mon tro?
Jag har förstått att det är skillnader på ljudmotorn i dessa program, men jag har personligen aldrig mött någon som jag tror vågat stå upp till bevis, alltså någon som kan höra skillnaden på cubase logic, frtuiy, reason osv osv...
när de är renderade med exakt samma ljud, under samma kvalitetsförhållanden, på samma högtalare, på samma dator.
Och då undrar jag hur man då kan prata om hur den ena är Bättre än den andra
Är det bara skitsnack hela skiten? subjektivt nonsens som "jag hör minsann skillnad" ungefär bara för att ha något att argumentera för/emot?
och isåfall, är det någon här som råkar vara insatt i exakt vad som ÄR skillnaderna på dessa ljudmotorer? och då menar jag inte några Subjektiva svar som "Det låter som allt är rosa elefanter när det är renderat i reason" eller "det låter burkigt i fruityloops"
Utan tekniska saker som på ett eller annat sätt säger att den ena är bättre än den andra. Finns det olika typer av algoritmer? Finns det några hemsidor som tar upp det här? böcker?
Tack o hej!
hmm, okej! jag får vända mig nån annanstans då
Det är en ganska bred fråga, med väldigt många svar på. Svaren kräver att man är insatt i hur det fungerar, både matematiskt och musikaliskt.
En sak kan man dock konstatera, det ÄR faktiskt skillnad på hur olika program lägger ihop ljudspår. Om vi tar Reason som exempel så gjordes det (vad jag kommer ihåg) det väl en omskrivning av ljudmotorn mellan versionerna 2.x och 3.0? Folk tyckte då att den nyare versionen låter bättre.
Skillnaderna består i hur man adderar ljud till varandra, exakta algoritmer, bitdjup i beräkningar och liknande. Bättre svar än så kan jag inte ge.
Jag vill minnas att jag såg en jämförelse på nätet (har letat lite men hittade den inte) där olika programs interpoleringsalgoritmer jämfördes. Det var nog mest mjuksamplers och några trackerprogram med i jämförelsen.
Och det var en mätbar skillnad, främst i hur mycket skräp och vikningsdist det blev i det högre registret har jag för mig.
Okej. tack för svaren
Jag vet väl ungefär lika mycket som ni, och råkar jag få reda på mer än såhär så ska jag posta länkar här.
Hej!
Hmmmm.....
Jag vet inte om det hör till detta, men för ett tag sedan när jag bytte från OS 9 till OSX (med Protools och en Mbox) så tyckte jag att det blev "bättre" ljud i OSX, vet inte riktitgt hur jag skall förklara det, men ljudet blev lite tightare och härligare. Jag använde exakt samma pluggar och Ljudspår, det var in spelat i OS 9, men när jag mixade om det i OSX så tyckte jag att det lät bättre.
Misstänker att OSX har en annan ljudupplösning via USB jämnfört med OS9???
Mvh
http://www.discodsp.com/highlife/aliasing/
där e några jämförelser mellan olika interpoleringar. Skulle tro att i fallet "öppna system" som cubase där ljudet kommer från pluggar så är det ju snarare pluggarna som representerar "ljudmotorn", dvs hur de låter i slutändan beror på pluggarna snarare än cubase. I reason så ligger väl hela bollen hos proppellerhead
själva summeringen i mixern bör väl vara ngt i stil med:
ut = kanal1ljud * kanal1Gain + kanal2ljud * kanal2Gain +...+ kanalNljud * kanalNGain
...eller vetefan :).
Fredrik_e
Summeringen i mixern är ju faktiskt omöjligt att bara gångra, så enkelt är det ju inte.
eftersom om du har 20 kanaler igång samtidigt, vardera med 16 bitar, och på mastern har du 16 bitar ut
så kan man helt enkelt inte bara gångra, allting måste mer eller mindre kvantiseras ner och summeras ihop så att de i slutändan återigen blir 16 bitar... och det är Den beräkningen som iallafall jag fått för mig kallas Sound engine.
+att det är något som främst sker i Renderingen, där motorn bidrar med att helt enkelt beräkna fram bästa möjliga, ex hoppa 256 bitar fram i varje spår och sen se hur dom bäst ska läggas ihop, utan att påverka ljuden på dom individuella spåren. Däremot är det ju annorlunda i ett analogt system, där är det ju inte så att man behöver tänka på sånt direkt då är det som du säger, bara kanal1+kanal2=dubbelt så högt = sänka volymen. och inte mer med det.
skulle man göra likadant på ett digitalt system får man digital dist... Det vore roligt att ha insyn i det här, även om jag inte är mattematiker eller så.
Det är ju även här Dithring kommer in. många plugga rhar ju "dither". där det helt enkelt läggs till lite white noise brus för att motorn lättare ska kunna räkna ut allting. riktigt Hur det går till vet jag inte, men ett tips för dom som bara kör på det för att det står "good quality" är att inte köra dithering förrens i absoluta slutskedet, eftersom det snarare bidrar till att öka brusgolvet på låten.
(beroende förståss, på vilken dithringsmetod man använder, finns ju olika, som t ex inte lägger till om det inte finns en insignal, och då är ju det tyst, När det är tyst)
men dithring är en helt annan diskussion egentligen skulle jag tro. fast experter skulle säkert itne hålla med mig. men jag villf rämst veta skillanderna på olika sequencerprogram. och få ett slut (eller en bra början) på det här med varför ena programet Låter bättre än det andra.
Fredrik_e
Summeringen i mixern är ju faktiskt omöjligt att bara gångra, så enkelt är det ju inte.
nja de borde nog funka, om min förslagna lilla metod nu låter bra eller inte de vettefan alltså kanal1Ljud = samplevärde (32bit float), tal mellan -1 och +1 , kanal1gain = 32bitfloat mellan 0 och 1 osv för resten av kanalerna. Säkerligen nästan alla program jobbar med 32bit internt, kvantiseringen sker väl först då ljudet ska ut till ljudkort/wav.
Exakt hur kvantiseringen sen ska utföras och vad man vill ha för ev. dither kan man ju bestämma själv i de flesta program mha nån plugg typ UV22 på slutet.
Modulation: "skulle man göra likadant på ett digitalt system får man digital dist... "
Nja, man kan ju mellanlagra datan i ett format med större ordlängd och sedan skala ner signalen till 16 bitar igen på slutet, ungefär som i den analoga världen alltså. Dessutom är nog den interna hanteringen i programmen i flyttalsformat.
Nja, man kan ju mellanlagra datan i ett format med större ordlängd och sedan skala ner signalen till 16 bitar igen på slutet, ungefär som i den analoga världen alltså. Dessutom är nog den interna hanteringen i programmen i flyttalsformat.
Aha, jo det låter ju rimligt.
men vad betyder flyttalsformat för nåt?
nja de borde nog funka, om min förslagna lilla metod nu låter bra eller inte de vettefan alltså kanal1Ljud = samplevärde (32bit float), tal mellan -1 och +1 , kanal1gain = 32bitfloat mellan 0 och 1 osv för resten av kanalerna. Säkerligen nästan alla program jobbar med 32bit internt, kvantiseringen sker väl först då ljudet ska ut till ljudkort/wav.
Jag tror inte jag förstår vad du menar faktiskt hur menar du med att använda multiplikation? de olika kanalernas amplitud Gångras ju itne direkt när de läggs ihop, det kan jag verkligen inte tänka mig. fast jag är inget mattesnille heller. jag kanske tillochmed blandar ihop alla begrepp inom mattematikvärlden
Kvantisering sker väl först på ljudet ska ut till ljudkort/wav...
Tja om så är fallet så skulle ju inte program riktigt "bråka" med varandra angående sound engines och ljudkvalitet, om allt hänger på ljudkortet?
Men så under rendering så används ju inte ens ljudkortet.
och då är ju soundengine där igen eller?
gah, jag ska googla som ett troll nu.
Hmm, summeringen är ju faktiskt bara att addera och förutsatt att du har förstärkning 1 på alla kanaler så blir summeringen förlustfri i den mening att samplevärdena inte behöver räknas om. Du behöver ju iofs summera ner till ett högre bitdjup för att inte slå i taket så det distar.
Själva multiplikationen i förstärkningen är ju iofs lite destruktiv men om programmet arbetar med 32 bitars flyttal så borde det vara mer än tillräklig precision.
"Flaskhalsen" är snarare när mixen ska konverteras ner till 24 eller 16 bitar och helst dithras också.
Makari, Okej.
men varför då allt detta snack om bättre och sämre ljud i olika sequencerprogram?
både fruityloops och reason och alla andra program som inte pratas så varmt om kör väl internt flyttal på 32 bit? speciellt i renderingen?
finns ju pluggar som kör 48bit om inte 64bit, psp mastercomp eller vad den heter. som jag inte provat, men läst lite om.
Isåfall så är det väl som jag tänkte från början, eftersom jag själv inte direkt "hör" skillnad på en wavfil renderad i cubase och en wavfil renderad i fruityloops.
Att det är så minimala skillnader att det inte är direkt "uppfattningsbart". och att hela tjafset om bättre ljud i olika program mer eller mindre är skitsnack.
Vad det gäller Reason så höjde man utnivån. Det gjorde att folk uppfattade ljudet som bättre... Man ändrade också EQn från att vara tokbrant till att bli mer restriktiv. Gamla EQ-läget finns kvar på baksidan av den större rackmixern, som en switch.
Jag instämmer med Dumb Dan, jag tvivlar på att alla som säger att de hör skillnad verkligen skulle göra det i ett ordentligt blindtest, det finns mycket hokus pokus och ogrundad vidskepelse och mindre av ordentliga vetenskpliga undersökningar inom ljudvärlden.
Det som har avgörande betydelse tror jag nog är vilka pluggar och effekter man använder och hur de är kodade.
Sen tror jag att dither-algoritmer kan ha viss betydelse men knappast nån jättestor.
Finns ju vissa som argumenterar för att göra själva summeringen analogt för att den digitala inte skulle låta tillräkligt bra vilket låter som fullständigt nys i mina öron. Snarare är det nog så att de gillar det inte lika perfekta ljudet från en analog mixer.
Jag tror att orsaken till att hela diskussionen om mixmotorer beror på Protools. Tidigare versioner jobbade med 24bit fixed point pga hårdvaran, och då finns mer utrymme för felaktigheter. Jag kan tänka mig att algoritmerna där inte var helt perfekta, och att det uppstod trunkeringsfel och liknande, vilket fick alla hårdvarutalibaner (den sorten med racken fulla med 1176:or, Nevebord och tyska vintagemickar, inte analogsyntfantaster) att döma ut "mixing ITB" ("in the box").
Summeringslådor verkar vara lite av svart magi, och i vissa fall verkar det helt enkelt gå ut på att tillföra distortioner och liknande till ljudet för att få det att låta bättre, vilket inte nödvändigtvis har särskilt mycket att göra med summering. Men jag kan tänka mig att analog distortion spelar in, det finns bevis för att brus och distortion gör det möjligt att uppfatta fler detaljer än samma signal utan brus (motsägelsefullt nog), och då skulle analogsummering vara bättre för att den inte är lika perfekt som digitalsummering.
När det gäller olika ljudmotorer kan man jämföra resultatet genom att rendrera filer och fasvända och se om det är någon skillnad. Är det inte det hör man i syne. (Eller vad man nu ska kalla det.)
Kul att se att dom flesta här instämmer med vad jag tänkte först.
just att det är nästan enbart bullshit. får mig att känna mig lite häftig. hahaha i like häftig.
jag drog bara den enkla slutsatsen genom att jag själv inte hör någon skillnad mellan fruityloops, reason cubase, logic... på 16bit.
det är väl isåfall protools jag faktiskt kan Höra en skillnad...
men sen var det evigheter sen jag lyssnade genom/på ett protools system. inte sen jag pluggade. och då var jag inte i närheten av lika "audioellt närvarande" som jag är i dagsläget.
yhhm, inget jag någonsin reflekterat över för egen för egen del faktiskt [mer än att jag hört folk tycka sig känna igen diverse EFXpluggar etc som hängt med\tillhör seq.programvaror i default paketet]··[men det e säkert nåt helt annat]
\\[detta e nog högst försumbart för vidare utfoskning i mitt fall på denna nivån kring "audio engines" --- så jag ser inte poängen riktigt heller med ev jämförelser, som troligen e så små att det inte berör en alls egentligen - tänker bara HI-End HIFI~grejjer för detta]
En "sound engine" brukar vara väldigt mycket mer än bara summering och sånt. Räkna med hanteringen av samplingarna, eventhantering, pluginhantering, de ska kunna leverera data till ljudkort (där tillkommer bufferhantering och en massa sånt meck), skriva ljuddata till filer, streama ljuddata från filer, rendera signaler grafiskt i en massa olika format, pitch, timestretch, konverteringar hit och dit, olika typer av filtreringar som ska användas typ överallt, balla meddelandesystem för kommunikation av olika slag mellan ljudmotorn och applikationen eller whatever.. och en massa annat. Summering, panorering, volym osv är småsaker (väldigt viktiga småsaker iofs). Nu har ju inte alla "sound engines" just alla de funktioner som jag just nämnde.. men ändå.. jag missade en massa. Sen så kan man ju iofs bråka om vilken abstraktionsnivå man ska bestämma sig för ska definiera ljudmotorn.
Volantiz, Aha! god poäng, kan ju vara bra att låta definitionerna andas lite.
Då kan tycker jag defenitivt man kan prata om bättre och sämre ljudmotorer, men det behöver inte med andra ord ha en direkt påverkan på Hur det låter att göra.
vilket verkar vara ett direkt antagande, iaf för mig, att sound engine direkt har med ljudet att göra, och inte med själva hanteringen utav det mesta.
Men var uppstod det hela med att den ena soundenginen Låter bättre än den andra, om det nu är så minimala skillnader att det är praktiskt taget omöjligt att höra någon skillnad i ett blindtest?
Brus i folkvimlet? så jävla mycket snack att det las på en dithring av tomma åsikter?!