RSSI är ett heltal mellan 0 och ett fördefinierat heltal (<256, dvs ett 8 bitars tal) kallat RSSI_max som används internt i chipets mikrokod (ibland kallat firmware) för att till exempel bestämma om/när en kanal är ledig att sända på, dvs om RSSI understiger något litet fördefinierat heltal nära 1 (Clear Channel Threshold).
Cisco till exempel har valt att sätta RSSI_max till 100 och Aetheros (som Apple använder?) till 60 osv.
RSSI är alltså ett relativt mått och relateras generellt inte till ett specifikt dBm-värde (utan är specifikt för varje tillverkare). Varje tillverkare väljer också ett lämpligt antal mW (och allt däröver) att avbilda på RSSI_max.
I princip kan man alltså (så länge styrkan är skild från 100% och man känner till RSSI_max för respektivte tillverkare) bestämma den ungefärliga (kontinuerlig - diskret avbildning, tekniska begränsningar hos nätverkschipet) mottagningsstyrkan i mW.
De visade procenten är alltså 100*(aktuellt RSSI / RSSI_max).
Hur väljs då ett mW-antal att förknippa med RSSI_max? Jag vet inte men det låter kanske rimligt att ta en effekt som teoretiskt tillåter överföringshastighet som mättar protokollet? Det krävs alltså antagligen ett visst mått av empiri för att bestämma detta.
Hoppas det gjorde det hela något klarare.
Edit: Hur den då kan visa t.ex. 51% vet jag inte då den borde bara kunna visa en avrundning till närmaste heltal av 100x/60 vilket blir 48, 50, 52, 53 osv. Kanske den använder en tidsaspekt för att ge värden däremellan.