Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.
Modulation

Modulation

Medlem
  • Plats Malmö
  • Sysselsättning 83a föddes i täby började göra musik när jag var 14 i fasttracker2. nu är allting annorlunda. och ändå inte.
  • Registrerad 2004-02-10
  • Senast aktiv 2010-04-11
  • Antal inlägg 230

Foruminlägg

De senaste inläggen Modulation har skrivit i forumet.

Jag tycker det låter fullt möjligt, sätt dig i MAX/MSP och pill away!

Fm, jadå, ingen fara. jag pluggade SAE, och vi gick igenom det här på kanske en halvtimme då, och det var ett par år sen nu. nu går jag interaktiv ljuddesign i malmö här typ, så det lär nog dyka upp. vad jag förstått är att det däremot inte handlar så mycket om uppfattningsbara skillnader i ljudet mellan en hel del av de olika sorters sätt att sätta ihop saker... men det har jag iofs bara märkt av för egen del med egna experiment. så frågan är vad som definerar en algoritm bättre än en annan... om man inte hör skillnad...

[EDIT] antagligen ingenting, säkert bara auktoritets spel ;D a la "cubase är bättre för att min guru är bättre än din guru!"

Lärorik tråd! mer mer. jag kommer plugga sånt här (igen) snart.

Ursprungligen av fredrik_e:

troligtvis ingenting... själva summeringen är nog mest ett +tecken...

vad som däremot påverkar ljudkvaliteten en del när man talar om samplers är interpoleringsmetoden som används, finns lite olika, sämst är linjär interpolering och bäst är "sinc" som inte riktigt går att göra i realtid. lustigt nog kan man i FL använda sig av "sinc depth 256" vid exporteringen, som är typ bäst.

det ligger lite mer till summering...
säg att du lägger ihop 2 st 16bitars ljud, så kommer dom ligga ovanpå varandra, alltså 16+16bitar, som då blir betydligt mer, och det är ner"bitandet" till 16 bit igen som är summeringen, som jag förstått det iallafall (det låter rätt logiskt m. tanke på ordet t ex ) och det finns olika algoritmer för summeringen, och de prioriterar alla lite olika saker.
Sinc 256 har jag märkt är jävligt dåligt när man vill ha snabba gateade ljud på hela låten, för den klipper inte rakt av även om man säger till den att göra det, samt att i fruitys egna sampler så "nerbitar" den annorlunda under den renderingen, så de blir inte bitcrushade i ljudet som man kanske ibland faktiskt vill ha...

som jag läst så har den sinc 256 lite med att den räknar fram, eller ser mönster i de kommande 256 bitarna av låten, och lägger ihop dem efter ett mönster. när det är linjärt så är det mer eller mindre bara + som du säger, men jag kan tycka det låter fräshare, och att det behövs väl inte sinc 256 eller nån form av "framräkning" när man t ex bara har ett ljudspår, och på en kanal.

men red gärna ut saker för mig om jag uppfattat det hela fel.

men jag kör oftas sinc 256 när jag renderar ut hela låtar, just för att jag sällan pitchar ner samplingar, utan brukar köra det mesta genom fruity granulizern... trummor o hela köret.

Bolaget vet antagligen inte vad dom snackar om. än så länge har jag aldrig hört om någon som klarat ett blindtest på en wav renderad i reason/cubase/logic/sonar/FL...

som false messiah sa, det handlar om summering och sådant... i princip hur ettorna och nollorna läggs ihop. jag startade en tråd om det för några månader sen, där jag mer eller mindre försökte få ett svar på all den här skitsnacket kring vilket program som låter bäst. och hurvida det är någon skillnad att rendera genom cubase (alltså, FL--->cubase med rewire typ)

De flesta som uttrycker att ett program är bättre än ett annat har oftast inget som helst att komma med när man börjar prata tekniskt med dom, och just tar upp summering, då vet dom ingenting om det, och det visar sig att dom bara har repeterat något som någon annan sa till dom "psssst cubase är bättre än lalala...." och sånt händer ju. "My guru said so, it has to be true!"

otroligt vad folk adopterar för åsikter från andra utan att ha någon som helst koll på vad det egentligen är dom säger. ska se om jag kan hitta länk till tråden btw.

Tråden! http://99musik.se/forum/showthread.php?t=17268&

[EDIT] instickare kring bolag... dom verkar vara väldigt måna om att trycka ner en och säga att man är dålig på ett eller annat sätt, det där med vad som har bäst ljud verkar vara vanligt, men jag har hört så mycket larv och skitsnack. dom verkar gilla att ha nån form av maktposition, som att man gör musik Åt Dom på nåt vis.

råkade komma över en sån härn liten screen

tycker inte det ser ut att ha ändrats så mycket.
fast det är ju ljudet som avgör sådant

Väcker den här tråden, 400 hz? så högt verkligen?

Femenint.

Microtonic tycker jag är rolig. den kan göra en del idmish aktiga knak krrrtt klick grejor, och "standard" aktiga syntetiserade trumljud, ex 808 909 osv. även om den inte gör dem så jättejättebra.

Volantiz, Aha! god poäng, kan ju vara bra att låta definitionerna andas lite.

Då kan tycker jag defenitivt man kan prata om bättre och sämre ljudmotorer, men det behöver inte med andra ord ha en direkt påverkan på Hur det låter att göra.

vilket verkar vara ett direkt antagande, iaf för mig, att sound engine direkt har med ljudet att göra, och inte med själva hanteringen utav det mesta.

Men var uppstod det hela med att den ena soundenginen Låter bättre än den andra, om det nu är så minimala skillnader att det är praktiskt taget omöjligt att höra någon skillnad i ett blindtest?

Brus i folkvimlet? så jävla mycket snack att det las på en dithring av tomma åsikter?!

Kul att se att dom flesta här instämmer med vad jag tänkte först.
just att det är nästan enbart bullshit. får mig att känna mig lite häftig. hahaha i like häftig.

jag drog bara den enkla slutsatsen genom att jag själv inte hör någon skillnad mellan fruityloops, reason cubase, logic... på 16bit.

det är väl isåfall protools jag faktiskt kan Höra en skillnad...
men sen var det evigheter sen jag lyssnade genom/på ett protools system. inte sen jag pluggade. och då var jag inte i närheten av lika "audioellt närvarande" som jag är i dagsläget.

Makari, Okej.
men varför då allt detta snack om bättre och sämre ljud i olika sequencerprogram?

både fruityloops och reason och alla andra program som inte pratas så varmt om kör väl internt flyttal på 32 bit? speciellt i renderingen?
finns ju pluggar som kör 48bit om inte 64bit, psp mastercomp eller vad den heter. som jag inte provat, men läst lite om.

Isåfall så är det väl som jag tänkte från början, eftersom jag själv inte direkt "hör" skillnad på en wavfil renderad i cubase och en wavfil renderad i fruityloops.

Att det är så minimala skillnader att det inte är direkt "uppfattningsbart". och att hela tjafset om bättre ljud i olika program mer eller mindre är skitsnack.

Citat:

Nja, man kan ju mellanlagra datan i ett format med större ordlängd och sedan skala ner signalen till 16 bitar igen på slutet, ungefär som i den analoga världen alltså. Dessutom är nog den interna hanteringen i programmen i flyttalsformat.

Aha, jo det låter ju rimligt.
men vad betyder flyttalsformat för nåt?

Citat:

nja de borde nog funka, om min förslagna lilla metod nu låter bra eller inte de vettefan alltså kanal1Ljud = samplevärde (32bit float), tal mellan -1 och +1 , kanal1gain = 32bitfloat mellan 0 och 1 osv för resten av kanalerna. Säkerligen nästan alla program jobbar med 32bit internt, kvantiseringen sker väl först då ljudet ska ut till ljudkort/wav.

Jag tror inte jag förstår vad du menar faktiskt hur menar du med att använda multiplikation? de olika kanalernas amplitud Gångras ju itne direkt när de läggs ihop, det kan jag verkligen inte tänka mig. fast jag är inget mattesnille heller. jag kanske tillochmed blandar ihop alla begrepp inom mattematikvärlden

Kvantisering sker väl först på ljudet ska ut till ljudkort/wav...
Tja om så är fallet så skulle ju inte program riktigt "bråka" med varandra angående sound engines och ljudkvalitet, om allt hänger på ljudkortet?
Men så under rendering så används ju inte ens ljudkortet.
och då är ju soundengine där igen eller?

gah, jag ska googla som ett troll nu.

Fredrik_e

Summeringen i mixern är ju faktiskt omöjligt att bara gångra, så enkelt är det ju inte.
eftersom om du har 20 kanaler igång samtidigt, vardera med 16 bitar, och på mastern har du 16 bitar ut
så kan man helt enkelt inte bara gångra, allting måste mer eller mindre kvantiseras ner och summeras ihop så att de i slutändan återigen blir 16 bitar... och det är Den beräkningen som iallafall jag fått för mig kallas Sound engine.
+att det är något som främst sker i Renderingen, där motorn bidrar med att helt enkelt beräkna fram bästa möjliga, ex hoppa 256 bitar fram i varje spår och sen se hur dom bäst ska läggas ihop, utan att påverka ljuden på dom individuella spåren. Däremot är det ju annorlunda i ett analogt system, där är det ju inte så att man behöver tänka på sånt direkt då är det som du säger, bara kanal1+kanal2=dubbelt så högt = sänka volymen. och inte mer med det.

skulle man göra likadant på ett digitalt system får man digital dist... Det vore roligt att ha insyn i det här, även om jag inte är mattematiker eller så.

Det är ju även här Dithring kommer in. många plugga rhar ju "dither". där det helt enkelt läggs till lite white noise brus för att motorn lättare ska kunna räkna ut allting. riktigt Hur det går till vet jag inte, men ett tips för dom som bara kör på det för att det står "good quality" är att inte köra dithering förrens i absoluta slutskedet, eftersom det snarare bidrar till att öka brusgolvet på låten.

(beroende förståss, på vilken dithringsmetod man använder, finns ju olika, som t ex inte lägger till om det inte finns en insignal, och då är ju det tyst, När det är tyst)

men dithring är en helt annan diskussion egentligen skulle jag tro. fast experter skulle säkert itne hålla med mig. men jag villf rämst veta skillanderna på olika sequencerprogram. och få ett slut (eller en bra början) på det här med varför ena programet Låter bättre än det andra.