Man kan ju faktiskt få de flesta tecken rätt om man använder 128-bits ASCII och inte den 127-bits som amerikaner ofta envisas med.
128-bits? Ojdå, det var värst.
Du menar väl 7-bits och 8-bits ( 8 bit = en byte), vilka ger 128 resp. 256 tecken.
Som sagt, alla varianter av alfabet och teckentabeller fick inte plats så därför har vi den röra av olika systemspecifika och regionsspecifika teckentabeller idag.
För att komma från detta utvecklades Unicode där adresseringen kan vara 8, 16 eller 32 bitar. (UTF-8, UTF-16 och UTF-32). Detta löser platsbristen men nu har vi fått tre teckentabeller till att välja mellan...
Tills hela världen har gått över till Unicode (OS, program, utvecklingsmiljöer etc.) så kommer vi att få dras med problem. Inom ett specifikt operativsystem kanske allt fungerar men det finns inga garantier att det system du kommunicerar med kör Unicode.
Butterfly:
Orsaken att du inte får använda Unicode i sökvägar är helt enkelt att systemet inte är byggt för att hantera det. Den sitter fast i 8-bitars träsket pga att det (eller delar av) skrevs före Unicode och för att allt ska fortsätta fungera med gamla program osv så har man inte ändrat. Att trycka in 2 bytes för ett tecken där andra program läser det som två separata tecken är inte så lyckat.
Minsta gemensamma nämnaren alltså.
Mer om Unicode hos www.unicode.org
/Hec
(Vars 'm' håller på att lägga av och retar inläggsskrivaren till vansinne)