引用だが

プロセッサーやメモリなどの演算リソースが同じでも、それまでのFP16と変わらない精度の推論を2倍の処理速度でこなせるINT8の実装で実現したのだ。

まあ、発表資料やスペック表での「AI性能」はマーケティング要素がほとんどで、クアルコムのスマホ用SoCやNVIDIAのデスクトップ用GPUは(INT8のさらに倍の速度になる)INT4を用いている。業界として「TOPS出すんならINT8で統一する」といった記事をみた記憶もあるが、ちっさく注釈つければINT4でもOKといった抜け道もあるのだろう。