【IT】コンピューターで全漢字使用可に 6万字コード化
■ このスレッドは過去ログ倉庫に格納されています
日本語の漢字は、戸籍などに使われているものも含めると6万字あるのに対し、コンピューターは、実は1万字しか扱うことができません。これに対し、このほど15年越しの作業の末、6万字すべてが統一の規格にまとめられて、コンピューターがすべての漢字を扱えるようになり、ビッグデータの活用をはじめさまざまな効果が期待されています。
コンピューターで文字を扱うには、1つ1つの文字に、「コード」と呼ばれる世界共通の番号を割りふる必要がありますが、日本語の漢字で、コードが割りふられているのは1万字だけで、コードが無く、コンピューターが扱えない「外字」は、戸籍で使われているものをはじめおよそ5万字に上っています。
中には、メーカーなどが独自に対応した外字もありますが、コードが無いために、メーカーごとの互換性が無く、データを受け渡してもコンピューターが認識できずに「文字化け」してしまったり、ある人の名前に本名の外字を充てたものと略字を充てたものの2つのデータがあった場合、コンピューター上では、別の人と認識されてしまったりするなどの問題が起きていました。
このためIPA=情報処理推進機構は平成14年から、経済産業省とともに外字を含めたおよそ6万字の漢字1つ1つに、コードを割りつける作業を進めた結果、このほど15年越しでようやく完了し、国際規格として登録されました。
この結果「日本語の壁」の1つが取り払われ、外字が使われた名前を正確に表示できたり、地名を含むビッグデータを正確に分析できたりするなどの効果が期待されています。
IPAの田代秀一参与は「日本人にとって、名前は大事なアイデンティティーで、戸籍では尊重されているがコンピューターが追いついていなかった。文字を正確に扱えるようにすることは、今後ますます重要になる」と話しています。
漢字とコンピューターのこれまで
戸籍で使われている文字のうち例えば「渡辺」の「ベ」は「辺」「邊」「邉」など11種類、「斉藤」や「斎藤」の「サイ」は「斉」「斎」「齊」「齋」などおよそ60種類ありますが、このうちコンピューターが扱えるのは「べ」は3文字、「サイ」は15文字ほどです。
また「吉田」の「ヨシ」のつくりが「土」になっている漢字も外字です。日本で初めて漢字のコードが作られたのは昭和53年のことで、当時はコンピューターの能力が低く大量のデータを扱えないことなどから登録された漢字は、およそ6000字でした。
その後、昭和54年に世界初の日本語ワープロが発売されるなど家庭や企業でパソコンが普及して、さまざまな漢字を扱う必要が出てきましたが、コードの整備は進まず、コードのない漢字は、それぞれのメーカーがばらばらに作っていました。
現在は、およそ1万字の漢字にコードが付いていますが、いまだに特定のソフトでなければ表示できない漢字もあり、対応が急がれていました。
企業や自治体も一苦労
外字の問題は、さまざまな企業だけでなく自治体の課題としても浮かび上がっています。
東京・表参道にある手紙用品店では、結婚式の招待状や席次表の印刷を手がけていて、名前に外字があった場合は、手書きで紙に書いてもらい、市販のソフトが対応しているかどうか調べています。
対応していない漢字は、作画ソフトを使って一画一画を手作業で書いていて、これまでにおよそ240字をこうした方法で対応したということです。
手紙用品店の吉澤まどかさんは「結婚式は、お祝い事なので、誤字脱字がないのはもちろんお名前の一画一画を大切にして間違いがないように心がけています」と話しています。
一方、福島県相馬市では、東日本大震災のあと、「り災証明書」の発行に必要な被災の状況を迅速に把握するため住民基本台帳にある名前や住所を電子地図に取り込もうとしました。
ところが、外字が含まれていたため、地図上で文字化けして黒い点になってしまい、手作業でのデータの修正を迫られたということです。
https://www3.nhk.or.jp/news/html/20171224/k10011270111000.html そして、収録されていない新しい漢字が発掘されて、再び仕事をつくる。
これが、IPAのデジタル詐欺という、永久機関。 >>298
15年も無駄に掛けたこの文字コードは何週遅れてるんだよ >>273
欧米中心だと
ローカライズはあくまでアジアの括りでしかやってくれないよ
unicodeのCJKVとかがいい例 >>301
最終的には16bitじゃ収まらないんだから
16bitから始めて、サロゲートペア、異体字セレクタと進んできたのは、
今の視点で見れば、そう悪くなかったと思える
CJK統合はちょっとうまくない統合もあるけどね >>295 >>297
「文化」は、役所の事務には要らない。
人名地名の管理は、文化なんて無視してやればいい。 >>304
役所のためにコンピュータがあるわけでは無い。 この程度で「全漢字」なんて言うのはNHKのバカ記者だろう >>1
漢字のほうを簡素にしろよ。
斎藤の斎の字だけでもたくさんあるし、
ツヨシ君の「草○」だって「ナギは〜」ってのまで書かなきゃでマスゴミも大変だろ。
「澤」も「沢」に統一すりゃ面倒がなくていいのに。 8000字登録で幽霊文字がいくつも出来たのに
六万字とか ぎゃあぎゃあうるさい客を黙らせるには、こんなアプローチしかなかったんだよ
ちなみに、異体字セレクタで指定するように実装されているので、コードが増えたわけではない
心配なソートや検索には少し機能追加して、異体字区別オン/オフ機能を持たせればいい >>310
ああ、フィルタリング出来るなら実害は無いか。
選択肢が多いってのも考えものではある。 >>295
そういうときは、テキストではなく、画像で表現するでしょう。 >>313
文字コードを与えられていないと文字として処理するのが不便です。
検索とかその文字を使って文章を書くとか。 >>315
各自が作ったファイルで共通の処理ができるの? >>316
異体字セレクタやフォント指定使えば問題なし 昭和の映画や看板には誤字のままレタリングしたようなのが結構見られる >>318
読み方もわからない漢字を探すとか苦行でしかない >>321
誰も手書きの話なんかしてないわこのアホウ >>9
バカ自慢しつつなぜかマウンティングw
底辺の無知蒙昧無敵wwwww >>1
これで異字体を実質的に廃止する機会を失った
後世にまで残る極めて悪質な判断
こういう事に労力をかけるのは無駄!無駄!無駄!
こんな無駄な事してるから日本はいつまでたっても非効率なんだ >>329
開発してる当事者らは社会の役に立ってると思い込んでるから救いようが無い http://www.chokanji.com/ckk/images/press/ckkvar03.png
コンピューターで異字体の検索が困難にならないように異字体同一視検索出来る様にするのは本末転倒
意味が同一であるなら表記も一つにすべき
文字の本来の意義は伝達である
伝達を困難にする文字の個性はいらない
個性を出したいならフォントで出せ
それが情報化社会における漢字のありかただと考える 異字体のうち誤用により生まれた文字は
即刻なくすべき
戸籍も同様に変更(正しい漢字とみなす)にすればいい
本人の文句は受け付けない、と >>338
誤用や書き損じが元になってるかどうかの判断はいまさら難しいが、字体や意味が同じまたはほとんど同じなら
一つの漢字に統一すべきだろうな
本人以外区別が付かない字に意義は無い
>>339
過去なんかどうでもいい問題は未来だ >>280
結局みんな、旧字体戦後に新字体になったのを拒否しただけの人だろ
ほとんどの人は、新字体の渡辺に変えたんだから役所は新字体だけに統一すればいい >>340
未来についても終わってる>>298
住民基本台帳ネットワーク統一文字
UCS
好きな包摂基準のを使えばいい >>341
そんなことしたければ
対応表使って正規化すればいい
君の設計するシステムでは >>345
なぜバカなのかすらわからないならレスする意味も無い >>347
昔の人が字の細かいところをうろ覚えで書いてた結果がこれか
なので全体の形はどれもよく似てる 半角文字や制御コードとの兼ね合いで、2バイトでは6万字は表せない
細かな字体の違いをコード化するためにUnicodeみたくバイト数増やすのか?
動画とかは無圧縮との違いが目立たないようにデータ切り捨ててるのに ■ このスレッドは過去ログ倉庫に格納されています