tiistai 14. heinäkuuta 2009

Tentti tarkastettu

Tentti on nyt tarkastettu ja tulokset ovat kurssin kotisivulla.

Ykköstehtävään oli päässyt typo, ja f-kohdan nuoli osoitti alaspäin, vaikka kyse oli interpoloinnista. Tästä kohdasta annoin kaikille yhden pisteen. Myös kakkostehtävän c-kohdassa olisi voinut mainita että siinä halutaan kvantisoidun signaalin arvojen jakauma, eikä taajuuksien jakaumaa. Vaikka osa vastaajista luultavasti ymmärsikin kysymyksen tahallaan väärin, ja piirsi helpomman taajuusjakauman kuvaajan, annoin tästäkin vastauksesta yhden pisteen.

Viitostehtävän b-kohta oli ensimmäistä kertaa "aineistotehtävä", ja idea vaikutti onnistuneelta. Tuntui, että jyvät saatiin eroteltua akanoista melko hyvin, koska tehtävä joko osattiin tai sitten ei (tekee tehtävästä helpon tarkastaa; esseekysymyksiin kaikki vastaavat aina jotain). Tosin vain kaksi taisi saada laskut oikein loppuun saakka (oikea tulos -7.74 tai 7.74 riippuen luokkien valinnasta), mutta oikeasta ideasta ja jonkinlaisista laskuista annoin 2-2,5 pistettä. Yllättävästi tavallisin virhe oli termin mu1-mu2 laskennassa! Pelkästä idean bongaamisesta ja sen selittämisestä ilman laskuja annoin yhden pisteen. Aineistotehtävien linjalla kannattanee siis jatkaa, koska se on myös lähellä käytännön insinöörityötä.

Yleisin virhe oli yrittää sijoittaa ensimmäiseen kaavaan w:n paikalle annettu luokiteltava vektori, ja näistäkin ratkaisuista melko useassa oli tuloksena outo ja määrittelemätön vektoreiden osamäärä eikä skalaari.

Kommentit tehtävistä ovat tervetulleita:
  • Mittaavatko ne osaamista?
  • Ovatko tehtävänannot ymmärrettäviä?
  • Voit ehdottaa myös itse keksimääsi hyvää tehtävää :)
Kiitos kaikille opiskelijoille sekä assareille kurssilla mukana olosta. Tulosten perusteella oppimistakin tapahtui. Olen lomalla 15.7-11.8, ja vastaan yksityiskohtaisiin kysymyksiin sen jälkeen.

keskiviikko 8. heinäkuuta 2009

Tentin 13.7. sali ja aika

POP-järjestelmässä ei kuulemma näy tentin salia. Sali on TB104 ja aika ma 13.7 klo 17-20.

Luento 8.7

Viimeisen luennon aiheina olivat signaaliprosessorit sekä epälineaarinen suodatus. Aivan lopuksi esiteltiin varovasti kurssin SGN-2606 aihepiiriä.

Signaaliprosessoreiden yhteydessä on tavallisesti ollut viikkoharjoitus (prujun tehtävät 9.1 ja 9.2), jossa toteutetaan Matlabilla suunniteltu ylipäästösuodin C-kielellä prosessorille. Nyt tähän ei ollut aikaa, joten sen sijaan toteutusta demottiin luennolla. Olennaisimmat vaiheet olivat:
  1. Suodin suunniteltiin Matlabin fir1-rutiinilla.
  2. Kertoimet kopioitiin C-koodiin.
  3. C-kieliseen pohjaan kirjoitettiin for-silmukka, jossa kertoimet käydään läpi.
  4. Ulostulonäyte kirjoitetaan D/A-muuntimelle.
Vaiheessa 3 on kiinnitettävä huomiota circular buffering-tekniikkaan, jotta viitataan oikeisiin aiemmin sisään tulleisiin alkioihin.

Signaaliprosessoreiden loppupuoli esiteltiin syitä niiden olemassaoloon. Tärkeimmät syyt ovat niiden yksinkertaisuus, halvempi hinta sekä pienempi virrankulutus. Kuitenkin niistä saa riittävästi tehoa signaalinkäsittelyn tarpeisiin, koska alan tarvitsemat operaatiot ovat nopeita (kertolasku, yhteenlasku). Esimerkiksi FIR-suodatuksen tarvitsemat kertolaskut ja yhteenlaskut voidaan suurelta osin laskea rinnakkain ns. MAC-operaation avulla. Vastaavia operaatioita on nykyisin myös tavallisissa prosessoreissa, ja ensimmäinen tällainen laajennus oli Intelin MMX-käskykanta vuodelta 1997.

Epälineaarista suodatusta tarkasteltiin lähinnä esimerkein. Ne saattavat tarjota vaihtoehdon lineaarisille suotimille (FIR ja IIR) silloin kun häiriö ja signaali sijaitsevat samalla taajuusalueella. Klassisin epälineaarinen suodin on mediaanisuodin, jonka ulostulo on suuruusjärjestyksessä keskimmäinen ikkunan sisällä olevista arvoista. Tätä vertailtiin demossa lineaarisen suotimen kanssa sekä äänen että kuvan suodatuksessa. Lopuksi tarkasteltiin vielä suotimen robustisuusmittoja, ja erityisesti murtumapistettä.

Viimeisen 15 minuutin aikana luotiin katsaus tilastolliseen signaalinkäsittelyyn ja erityisesti parametrien estimointiin. Ideana on luoda malli signaalista, joka riippuu tietyistä parametreista. Ongelmana on tämän jälkeen kehittää menetelmä näiden parametrien valintaan mitatun datan perusteella. Esimerkkinä voisi olla signaali, jonka tiedetään olevan sinimuotoinen, mutta amplitudi, vaihe sekä taajuus eivät ole tiedossa. Tähän ongelmaan on olemassa estimaattori, joka arvioi optimaalisesti kohinaisesta datasta näitä kolmea parametria.

Viimeisen 15 minuutin tavoitteena oli osin antaa rehellinen kuva signaalinkäsittelyn oppiaineesta: aihe vaatii matematiikan osaamista (tai ainakaan kaavoja ei saa pelätä). Toisaalta matematiikkaa pelkäämättömälle aihe tarjoaa hienon mahdollisuuden toteuttaa itseään mielenkiintoisten sovellusten parissa. Kriittisiä taitoja signaalinkäsittelijälle on mm. ohjelmointitaito, koska menetelmät miltei aina tullaan toteuttamaan ohjelmiston osana. Näin ollen ilman ohjelmointitaitoa ei kannata valmistua signaalinkäsittely pääaineenaan.

tiistai 7. heinäkuuta 2009

Luento 7.7

Ensin hallinnollinen tiedotus tehtäväpaketin saaneille: jos palautat ratkaisut viimeistään maanantaina 13.7 klo 8:00 mennessä, voit saada kokonaismerkinnän samalla kuin muut. Tämän jälkeen palautetut tehtäväpaketit tarkastan lomani jälkeen eli elokuun loppupuolella, ja kokonaismerkinnän voi saada vasta sen jälkeen.

Tänään luennon aiheena oli luokittelu sekä signaaliprosessorit. Koska kurssi on edennyt suunniteltua nopeammassa aikataulussa, käsiteltiin luokittelua ja hahmontunnistusta prujun tekstiä laajemmin. Aihe tuntui herättävän kysymyksiä ja se on myös oma tutkimuskohteeni, joten siitä oli helppo puhua. Aluksi esiteltiin esimerkki luokitteluongelmasta mukaillen Dudan ja Hartin oppikirjaa, jonka ensimmäisessä kappaleessa tarkastellaan luokitteluongelmaa kuvitteellisessa kalatehtaassa. Kun kalojen muoto on saatu irrotettua taustastaan, voidaan siitä laskea erinäisiä suureita ja päätellä näiden perusteella automaattisesti kalalaji. Esimerkissä laskettiin automaattisesti kalan pituus sekä sen keskimääräinen kirkkaus. Näistä kahdesta suureesta todettiin, ettei kumpikaan yksinään riitä ratkaisemaan ongelmaa: on olemassa myös isoja lohia ja tummempia meriahvenia. Luokittelemalla kaksiulotteisia piirrevektoreita (pituus, kirkkaus) saadaan luokat kuitenkin melko erillisiksi toisistaan. Suosittuja luokittelualgoritmeja ovat ainakin seuraavat (kasvavan monimutkaisuuden järjestyksessä):
LDA:sta on viisi harjoitustehtävää huomenna. Esimerkin yhteydessä havaittiin että liiallinen kompleksisuus suhteessa opetusdatan määrään tekee luokkien rajoista epärealistisen monimutkaiset.

Tämän jälkeen paneuduttiin hermoverkkojen opetukseen, ja tarkasteltiin lyhyesti opetusalgoritmin takana olevia derivointikaavoja. Nämä kaavat löytyvät esim. täältä. Perus- backpropagationin lisäksi on olemassa kehittyneempiä ja nopeampia opetusalgoritmeja, ja esim. Matlabissa niitä on lähes parikymmentä. Olennaisin ero algoritmien välillä on niiden nopeudessa ja muistin tarpeessa.

Luentotauon ajaksi laitettiin verkon opetus pyörimään, ja opetettiin sitä luokittelemaan suomalaisissa rekisterikilvissä olevia kirjaimia ja numeroita (vrt. prujun esimerkki). Opetusaineistona oli n. 7000 kirjainta ja ajo kesti vain 5 minuuttia. Tulosta demottiin skriptillä, jossa hiirellä voitiin näyttää merkin summittainen sijainti isossa kuvassa, ja verkko luokitteli sen johonkin luokkaan. Todettiin, että luokittelun suhteen oli kriittistä mikä kohta tarkalleen verkolle syötettiin. Yleisemminkin käytetty GIGO-periaate pitää siis paikkansa tässäkin yhteydessä.

Demoja ja esimerkkisovelluksia oli esillä muutenkin melko paljon. Matlabilla esiteltiin suuntaviivoja kuva-analyysille, joka löytäisi verkolle esitettävät objektit kuvasta. Menetelmät riippuvat paljon etsittävän kohteen mukaan, mutta joitain yleisimpiä ratkaisuja kuvaillaan wikipedian feature detection -artikkelissa. Lisäksi vilkaistiin kahta kasvojen havaitsemiseen kehitettyä ratkaisua. Perinteisempi näistä etsii kasvokandidaatteja ihonvärin perusteella ja syöttää ne hermoverkolle. Koska kasvojen ala kuvassa voi olla melko suuri, pudotetaan kasvokandidaatin dimensiota esim. 100 x 100 = 10000 komponentista esim. neljäänkymmeneen käyttäen ns. pääkomponenttianalyysiä. Läpimurroksi kuvailtu uudempi vaihtoehto kasvojen havaitsemiseen perustuu yksinkertaisten luokittelijoiden yhdistämiseen, niin että jokainen pyrki löytämään mahdollisimman suuren osan ei-kasvoista. Koska näitä on paljon enemmän kuin kasvoja, tulee toteutuksesta tehokas. Tästä algoritmista löytyy C-kielinen toteutus osana OpenCV-projektia. Toteutus toimii useiden webbikameroiden kanssa "heittämällä". OpenCV on myös muuten lupaava alusta konenäköprojektien toteutukseen Matlabin sijaan. Toinen yleinen vaihtoehto on Java-kielinen ImageJ.

Aivan luennon lopuksi käsiteltiin kappaleen 9 alkua. Huomisella luennolla demotaan FIR-suotimen toteutusta TI:n C6713-prosessorilla. Normaalisti tämä on ollut yhtenä harjoituksena, mutta tänä vuonna harjoitusta ei saatu mahtumaan mukaan.

maanantai 6. heinäkuuta 2009

Luento 6.7

Viikon ensimmäisellä luennolla käsiteltiin audiokompressiokappale kokonaan sekä alkuosa luokittelusta (kpl 8).

Audiokompression ideana on tallentaa äänisignaali häviöllisesti poistaen bittejä sieltä missä kuulo ei niitä havaitse. Tässä auttaa kuulon ominaisuuksien tuntemus, joista olennaisin osa on s. 81 kuulokäyrä. Kuulo havaitsee matalia ja korkeitä ääniä heikommin kuin keskiääniä. Tämän vuoksi epätarkemmin havaittavat taajuudet voidaan esittää pienemmällä bittimäärällä. Tässä yhteydessä on hyvä muistaa että jokainen poistettu bitti lisää kvantisointikohinaa kuudella desibelillä. Kysymys voidaan siis asettaa muotoon: "montako kuuden desibelin palikkaa kuulokäyrän alle mahtuu kullakin taajuudella". Lisätilaa kuuden desibelin palikoille saadaan havaitsemalla, että äänet peittävät heikompia ääniä alleen. Tässä tapauksessa siis itse kompressoitava signaali peittää näitä heikompia kuuden desibelin palikoita. Luennolla nähtiin myös esimerkki siitä miltä tulosmaski saattaisi näyttää yksittäisen piippauksen ympäristössä.

Jotta kuulomallia voitaisiin käyttää, täytyy signaali jakaa taajuuskaistoihin. Tämä tehdään kaistanpäästösuotimilla, ja kaistoja mp3-standardissa on 32. Kukin kaista voidaan alinäytteistää kertoimella 32, jolloin dataa on saman verran kuin alun perin. Nämä kaistat voidaan sitten kvantisoida kuulomallin mukaisesti. Palautettaessa alkuperäistä näytteenottotaajuutta riittää tehdä ylinäytteistys (nollien lisääminen) kertoimella 32, jolloin havaitaan, että aiemmin laskostunut signaali pomppaakin oikealle paikalleen ja vieläpä oikein päin --- siinäkin tapauksessa, että se olisi sattunut laskostumaan peilikuvakseen.

Luokittelua (kpl. 8) lähestyttiin yleisemmästä kuin pelkästä hermoverkkojen näkökulmasta. Monisteen liitteessä on kuva, jossa kaksiulotteista dataa on jaettu kahteen luokkaan, ja näiden perusteella pitäisi rakentaa luokittelija. Tämä tehdään ylihuomisissa harjoituksissa käyttäen Fisherin lineaarista diskriminanttia. LDA on yksinkertaisin luokittelumenetelmä, kun taas hermoverkot ovat monimutkaisimmasta päästä. Keinotekoinen hermoverkko matkii aivojen toimintaa, joka perustuu suureen määrään yksinkertaisia laskentayksiköitä, jotka aktivoituvat ja lähettävät tiedon tilastaan eteenpäin. Tässä tapauksessa yksiköt laskevat painotetun summan naapuriensa aktivointitasoista. Näitä painoja on yleensä kymmeniä tuhansia, joten niiden valinta vaatii automaattisen menetelmän. Yleisimmin käytetty menetelmä, backpropagation, perustuu virhefunktion osittaisderivaattaan kunkin painon suhteen.

perjantai 3. heinäkuuta 2009

Luento 3.7

Viikon viimeisellä luennolla aiheena oli spektrin estimointi. Ennen tätä käytiin kuitenkin lyhyesti läpi kolme esimerkkiä adaptiivisen suodatuksen sovelluksista:
  1. Kaiunkumous matkapuhelimissa
  2. Silmien liikkeiden aiheuttamat häiriöt EEG-signaalissa
  3. Sikiön sydänäänten tunnistus usealla mikrofonilla (osin sama kuin luentomonisteessa)
Spektrin estimoinnin tarkoituksena on selvittää signaalin taajuusjakauma. Tämä onnistuu toki normaalilla diskreetillä Fourier-muunnoksella, mutta ei tuota täysin oikeaa tulosta, jos signaalin taajuuskomponenttien jaksot eivät ole samat kuin tarkasteluikkunan pituus. Sivun 66 alimmassa kuvassa on tilanne, jossa signaalin taajuus osuu juuri kahden muunnoskomponentin väliin, jolloin energia jakautuu lähellä oleville taajuuskomponenteille.

Ongelmaa voidaan lähestyä kahdesta suunnasta: ensimmäinen ratkaisu on käyttää pidempää ikkunaa, jolloin kaytettävissä olevien taajuuskomponenttien määräkin kasvaa. Joissain tilanteissa pituutta ei kuitenkaan voida määrättömästi kasvattaa esim. mittauksen hitauden tai kalleuden vuoksi, jolloin voidaan generoida lisää näytteitä keinotekoisesti. Pienimmät sivuvaikutukset saadaan kun lisätään signaalin loppuun nollia. Tämä auttaa esimerkiksi sivujen 67-68 kuvien mukaisesti löytämään voimakkaimman taajuuden, joka 16 pistellä suoraan ei löytyisi.

Toinen menetelmä estimoinnin parantamiseksi on ikkunoida näytteet (ennen nollien lisäämistä). Käytettävät ikkunat ovat samoja kuin suodinsuunnittelun yhteydessäkin, ja niiden avulla voidaan poistaa spektrin sivukeiloja (lisää ikkunoita harrisin artikkelista). Sivukeilojen poistumisen sivuvaikutuksena pääkeila kuitenkin leviää, joten ikkunan valinta on aina kompromissi samalla lailla kuin suodinsuunnittelussakin. Ikkunoiden vertailun helpottamiseksi niille voidaan laskea kuvaavia tunnuslukuja, joita esitellään kappaleissa 5.2.1-5.2.4.

Varsinaisen prujun asian lisäksi demottiin oskilloskooppia, jossa on myös spektriestimointi-toiminto. Havaittiin, että käytetyssä mallissa on mahdollista valita joko suorakulmainen ikkuna tai Hanning-ikkuna. Lisäksi nähtiin, että tietokoneen äänikortin epäideaalisuudet löytyivät spektristä vain Hanning-ikkunan avulla; ei pelkällä suorakulmaisella ikkunalla. Riittävän kovalla äänenvoimakkuudella tietokone nimittäin leikkaa sinisignaalin huiput tasaisiksi. Tämän säröefektin Fourier-sarja olisi mahdollista laskea analyyttisestikin, ja sen avulla voidaan ääni saada kuulostamaan voimakkaammalta keinotekoisesti---temppu jota käytetään esimerkiksi tekemään mainoksista kovaäänisempiä.

Toisena demona esiteltiin TI:n signaaliprosessoria ja sen ohjelmointia. Demossa toteutettiin järjestelmä, joka tunnisti mitkä taajuuksista 697 Hz, 770 Hz, 852 Hz ja 941 Hz olivat mukana kortille tulevassa signaalissa. Tätä käytetään tiedonsiirtoon yleisemminkin, ja juuri näitä taajuuksia ns. DTMF-signaaleina lankapuhelimissa.

torstai 2. heinäkuuta 2009

Luento 2.7

Tänään käsiteltiin monisteen kappale 4: adaptiivinen suodatus. Adaptiivisten suodinten ideana on oppia suotimen kertoimet tilanteen mukaan. Perusrakenne vaatii aina kaksi signaalia: referenssisignaalin sekä kohdesignaalin, ja kokonaisuudesta on kuva sivulla 47. Adaptiivinen suodin pyrkii saamaan referenssin ja suodatetun kohdesignaalin mahdollisimman lähelle toisiaan. Termi mahdollisimman lähelle määritellään täsmällisesti kustannusfunktion avulla, joka on erotuksen neliön odotusarvo. Tällöinhän täytyy enää löytää adaptiiviselle suotimelle ne kertoimet, jotka minimoivat kustannusfunktion.

Adaptiivisen suodatuksen toinen puoli on keksiä mikä olisi referenssisignaali ja mikä kohdesignaali. Toimintaperiaatteensa mukaan AS pyrkii suodattamaan kohdesignaalin niin, että se on mahdollisimman identtinen kopio referenssisignaalista (tai jostain sen osasta). Kohinanpoiston yhteydessä tilanne on yleensä sellainen, että kohdesignaali sisältää pelkkää häiriötä ja referenssi häiriön sekä etsittävän hyötysignaalin. Yksinkertaistettuna AS siis tekee vähennyslaskun:

tulos = referenssi - kohde

eli

tulos = (häiriö + hyöty) - häiriö

Koska y.o. kaavan termi häiriö ei ole sama referenssissä ja kohteessa (esim. viiveet, vaimennukset jne.), täytyy väliin heittää suodatin F:

tulos = (häiriö + hyöty) - F(häiriö),

joka muuntaa kaksi häiriökomponenttia identtisiksi.

Häiriönpoiston ja muiden sovellusesimerkkien lisäksi esiteltiin esimerkki kaiunkumouksesta, jonka voi tehdä adaptiivisilla suotimilla.

Kappaleessa 4.5 etsitään optimiratkaisu w, joka saadaan kun kohde ja referenssi on kiinnitetty. Tulos esitetään autokorrelaatiomatriisin R ja ristikorrelaatiovektorin p avulla. Käytännön tilanteissa näiden estimointi on kuitenkin hankalaa, joten optimiratkaisun sijaan käytetään iteratiivista algoritmia, joka parantaa painokertoimia sitä mukaan kun uutta dataa tulee. LMS-algoritmi etenee aina kustannusfunktion hetkellisen gradientin suuntaan (miinusmerkkisenä). Hyppäyksen pituus määräytyy parametrin mu mukaan, jonka suuruusluokan valitsemista tarkasteltiin luennon lopuksi.

keskiviikko 1. heinäkuuta 2009

Luento 1.7

Kurssi on nyt tarkalleen aikataulussa, koska tämän päivän luennolla käsiteltiin kappale 3 loppuun. Kappaleen idean lyhyen kertauksen jälkeen alettiin interpoloinnin (kpl 3.3) lähempi tarkastelu. Interpolointihan koostuu nollien lisäämisestä sekä tämän tuottamien roskien poistamisesta. Nollien lisääminenhän tuottaa kopioita ja peilikuvia alkuperäisestä spektristä, jotka voidaan poistaa kätevästi alipäästösuodatuksella.

Kappaleessa 3.4 luodaan katsaus interpoloinnin ja desimoinnin yhdistämiseen, jolloin päästään s. 34 alalaidan rakenteeseen. Tässä huomataan olevan kaksi suodatinta peräkkäin, jotka molemmat poistavat tietyn kaistan ylätaajuuksilta. Näin ollen vain toinen niistä on tarpeellinen. Piirtämällä kuva näiden suodinten amplitudivasteista voidaan päätellä kumpi on tarpeeton (aina se, jota vastaava muunnoskerroin on isompi).

Luennon loppupuoli käytettiin ekskursioon D/A-muunnoksen toteutuksessa. Tarkasteltavana oli kaksi ratkaisua, joista kappaleen 3.5.1 versio on vanhempi, ja oli käytössä esim. ensimmäisissä CD-soittimissa (etupaneelissa saattoi olla teksti 4 times oversampling tms.). Tällöin D/A-muunnos tehdään ns. nollannen asteen pitopiirillä, joka tuo signaaliin häiriöitä korkeille taajuuksille. Nämä voidaan poistaa analogisella alipäästösuotimella, mutta ongelmaksi tulee kapea siirtymäkaista (20kHz - 22,05 kHz). Analogiapuolta voidaan yksinkertaistaa siirtämällä osa toiminnallisuudesta digitaaliseksi, eli interpoloimalla signaali digitaalisesti ennen D/A-muunnosta. Tämä näkyy aikatasossa s. 36 porraskuvion hienontumisena ja tätä kautta pitopiirin virheen pienenemisenä jä siirtymisenä korkeammille taajuuksille. Ilman digitaalista interpolointia tarvittavan analogisen suotimen siirtymäkaistan leveys olisi yllä mainittu 2,05 kHz, kun esim. nelinkertaisella interpoloinnilla se saadaan yli 130 kHz:n levyiseksi.

Toinen, nykyisin yleisempi ratkaisu yksinkertaistaa analogiapuolta edelleen kvantisoimalla D/A-muunnettavan signaalin 1-bittiseksi (etupaneelissa saattaa lukea 1 bit D/A conversion, tms.). Ratkaisusta käytetään nimeä kohinanmuokkaus, englanniksi noise shaping tai sigma delta modulation. Kvantisointi onnistuu äänenlaatua heikentämättä, kun nostetaan näytteenottotaajuus ensin riittävän suureksi. Tällöin näytteiden suuri määrä kompensoi niiden heikkoa tarkkuutta. Pelkkä ylinäytteistys ei kuitenkaan vielä riitä: ilman muita temppuja näytteenottotaajuus pitäisi nostaa jopa miljardikertaiseksi, mikä ei käytännössä ole mahdollista. Siksi täytyy ottaa käyttöön sivun 39 lohkokaavion mukainen takaisinkytkentä, joka aiheuttaa kvantisointivirheen siirtymisen korkeammille taajuuksille. Siellähän kohina ei haittaa, koska se voidaan erottaa hyötysignaalista analogisella alipäästösuodatuksella D/A-muunnoksen jälkeen. Jäljelle jäävän kvantisointikohinan määrä voidaan laskea, ja havaitaan että suuruusluokassa 1500 oleva muunnoskerroin riittää (miljardien sijaan). Ratkaisua voidaan edelleen tehostaa tarkastelemalla korkeampiasteisia kohinanmuokkaimia, jotka siirtävät vieläkin tehokkaammin kvantisointikohinaa korkeammalle.

Jotkin audioformaatit kuten Super Audio CD tallentavat äänen suoraan yksibittisenä. Tästä on etuna se, että kohinanmuokkaus täytyy tehdä vain kerran äänitysstudiossa eikä jokaisessa kuluttajalaitteessa erikseen.

Molemmat D/A-muunnosratkaisut ovat hienoja esimerkkejä viime vuosikymmenten trendistä siirtää elektronisten laitteiden toiminnallisuutta analogisesta maailmasta digitaaliseen maailmaan. Tästä on (ainakin) kaksi merkittävää etua:
  1. "Digitaalinen toiminnallisuus" tarkoittaa suomeksi softaa, jonka ainutkertainen ominaisuus on että saman tuotteen voi myydä useaan kertaan. Tästä syystä myös Bill Gates on maailman rikkain ihminen. Jos myyntimäärät ovat riittävän suuria, monimutkaisenkin softan toteutuksen hinta on mitätön suhteessa siitä saatavaan hyötyyn. Kannattaa siis hyvinkin palkata 10 DI:tä tekemään softalla ratkaisu, joka laskee lopputuotteen tuotantokustannusta esim. vain 10 senttiä, jos tuotetta myydään miljoonia kappaleita.
  2. Digitaalisuunnittelu on usein helpompaa kuin analogiasuunnittelu. SDSU:n kuuluisa professori frederick j. harris [sic] vertasi puheessaan työskentelyä digitaalisessa maailmassa työskentelyyn San Diegossa ja työtä analogisella puolella työhön Minnesotassa. San Diegossa on suunnilleen Välimeren ilmasto ja Minnesotassa suunnilleen Suomen ilmasto.