InformationTheory
をテンプレートにして作成
LECTURE
担当科目一覧
コンピュータ概論/2024
データサイエンス/2024
3DCG演習/2024
情報デザイン研究/2024
卒業研究/2024
KEYWORDS
WEB DESIGN
SOCIAL DESIGN
SQUARES
LINKS
九州産業大学
芸術学部
芸術研究科
九産大美術館
九産大図書館
年間スケジュール
動画ニュース他
交通情報
気象・環境情報
危機に備えて
K'sLife
Office365Mail
Tools
SEARCH
開始行:
*情報理論
InformationTheory
~
**はじめに
情報とは、何らかの媒体を通じて発信者から、受信者に伝達さ...
//-ノーバート・ウィーナー(Norbert Wiener)によれば・・
// 情報とは、外界から得る知識内容のことであり、
// 記号のセリーが担っている秩序の尺度である
//
//-甘利俊一の「情報理論」によれば
// 情報とはわれわれに何事かを教えてくれるものであり、
// われわれの不確実な知識を確実にしてくれるものである。
~
***informationの語義・語源
-information n.
1. informすること
2. 告訴、略式起訴
-inform v.
1. 教育する、訓練する
2. 形づくる、生み出す
3. 知識を授ける、教える
4. …の特徴を与える;魂を吹き込む
5. 人に…を知らせる
-informer n.
1. 教授者、指導者
2. 通知者、情報提供者
&small(英語語源辞典,1997,研究社);
~
***物質・エネルギー・情報
物質・エネルギー・情報という3大抽象概念のうち、「情報」...
物質(紀元前) > エネルギー(17世紀) > 情報(19世紀)
''物質は''、我々の視覚・触覚で直感的に捉えられるもので、...
-デモクリトス(BC.460頃 ~ BC.370頃) 原子論
-アリストテレス(BC.384 ~ BC.322) 質料と形相 &small(...
''エネルギーは''、直接的に目に見える対象ではないがゆえに...
-力学的エネルギー(運動エネルギー + 位置エネルギー)
-熱エネルギー
-化学エネルギー(結合、燃焼)
-電磁気エネルギー(電気、磁気)
-電磁波エネルギー(光、放射線)
-核エネルギー(核分裂、核融合)
17世紀イタリアの物理学者ガリレオ・ガリレイによる「位置エ...
力学的エネルギーに加え、熱エネルギー、化学的エネルギー、
電気エネルギー、光(電磁波)のエネルギー・・
すべてのエネルギーの総和は、閉じた系において常に一定であ...
これによって、あらゆる物理現象が数式によって説明されるよ...
そして1905年、物理学者 A. アインシュタインの特殊相対性理...
物質とエネルギーは同じものであり、相互に変換できる
ということが発見されました。質量とエネルギーは '''''E = m...
''では、情報とは何か。''、哲学者 吉田民人は、数学者 N.ウ...
物質・エネルギーの 時間的 − 空間的、また定性的 − 定量的...
&small(吉田民人 , 情報・情報処理・自己組織性 , 組織科学 ,...
情報とは何か。物質・エネルギー・情報という3つの概念を並...
物質として存在する情報媒体は空間に拘束されるとともに、時...
~
***パターンとコード
パターンとコード。似ているようで異なる概念です。パターン...
-Pattern:規則性のある様式、模様、型、体系・・・
-Code:法、規則、規約、 慣例、作法、記号、符号、識別子・...
//記号化・符号化する行為をコーディングと言います。
~
***情報を捉える視点(概念モデル)
-情報は主に「視覚情報」「聴覚情報」(「触覚情報」)に分類...
これらは光・電波・音波・力といった物理的な存在であり、電...
-情報は、「情報源」から発生し「情報媒体」に載って移動する
--聴覚情報:情報は「音源」から発せられる
--視覚情報:情報は「二次光源」上にある(「光源」がそれを...
-情報にはアナログ(類似・連続的)とデジタル(数値・離散的...
--アナログは情報と媒体が一体となっている(フィルム、レコ...
--デジタルは情報と媒体が独立している(USB、ネットワーク・...
-情報はハードとソフトの区別でいえばソフトにあたる
--ハード(モノ)は劣化してやがてゴミになる
--ソフト(情報)はバージョンアップするとともに半永久的に...
-情報は「有限の要素」の配列として編集される
文字は有限の要素の集合で、個々の文字にはコードが割り当て...
参考:[[文字コードの確認>http://www.edu.i.hosei.ac.jp/~si...
-情報は複製される
--情報は物質ではないため複製コストがかからない([[限界費...
--複製・共有されない情報は情報として機能しない
//情報はひとりではいられない・・・松岡正剛
-情報は「生産完成品」ではない(送り手側だけで成立するもの...
--工場で生産される「製品」の大半は「生産完成品」
--文学・映像・音楽・・いずれも「受け手」の状態が関与する
~
***情報理論に関わる重要な人物
-[[ノーバート・ウィーナー>Google:ノーバート・ウィーナー]]...
-[[フォン・ノイマン>Google:フォン・ノイマン]](1903 - 195...
-[[クロード・シャノン>Google:クロード・シャノン]](1916 -...
&aname(amount_of_information);
~
~
**情報量と秩序
情報量の定義には、「その事象がもたらす知らせの大きさ」と...
~
***選択的情報量
事象Eが起こる確率を P(E) とするとき、 「事象 E が起こった...
//''情報量 = ーlogSUB{2};P(E) SUB{(bit)}; P:生起確率''
#mathjax( I(E) = \log_{2}{ \frac{1}{P(E)} } = -\log_{2}{...
情報量は、2を底とする対数で、単位は bit( binary digit :...
生起確率が低い事象ほど情報量は大きくなる。つまり「珍しい...
選択的情報量は、事象によっては簡単に記述することもできま...
//''情報量 = logSUB{2};N SUB{(bit)}; N:可能性の数''
#mathjax( I(E) = \log_{2}{N} )
~
***対数について
&mathjax(\log); って何?という方へ、以下のように理解いた...
-&mathjax(\log_{2}8 = 3); とは「2を3乗したら8になる」...
つまり &mathjax(\log_{2}8 = ); は「2を何乗すれば8になる...
「2を底とする8の対数は3である」などという言い方をしま...
-で、例題、&mathjax(\log_{2}256 = 8); (2を底とする256の...
-以下、参考までに &mathjax(y = \log_{2}X); のグラフです。
[[Google: y = log2 x]]
-ちなみに、&mathjax(\log_{2}16^2 = 2 \times \log_{2}16);...
つまり、指数はくくり出せるので、
&mathjax(- \log_{2}\frac{1}{N} = - \log_{2}N^{-1} = \log_...
事象の出現確率がすべて同じであれば、&mathjax( p = \frac{1...
~
***平均情報量(エントロピー,シャノン情報量)
すべての事象について「出現確率 x 出現時情報量」 の平均を...
//エントロピー = - ΣP(E)・log SUB{2}; P(E)
#mathjax( H(P) = - \sum_{ }^{ } P(E) \cdot \log_{2}{P(E)...
//\bullet
***エントロピーは何を意味するか
情報学におけるエントロピーは、簡単にいうと「わからなさ」...
結果が「どの程度予測しにくいか」といってもいいでしょう。
この概念を用いると、以下のように情報量を考えることができ...
ある「知らせ」の情報量
= はじめのわからなさ ー 「知らせ」のあとに残るわからなさ
サイコロを振ったとき「偶数が出てるよ」という「天使のつぶ...
-サイコロを振って何がでるか?の、はじめのエントロピーは、
ー Σ(1/6)・log SUB{2}; (1/6)
= ー 1/6 x log SUB{2}; (1/6) ー 1/6 x log SUB{2}; (1/6) ...
= ー log SUB{2}; (1/6) = log SUB{2}; 6 = 2.5849 SUB{(bi...
- 「偶数が出てるよ」というつぶやき(ヒント)が得られたと...
あとは2か4か6なので、あとに残るエントロピーは
ー Σ(1/3)・log SUB{2}; (1/3)
= ー 1/3 x log SUB{2}; (1/3) ー 1/3 x log SUB{2}; (1/3) ...
= ー log SUB{2}; (1/3) = log SUB{2}; 3 = 1.5849 SUB{(bi...
-3) よって「偶数の目が出た」という知らせの情報量は、
情報量 = 1) - 2) = log SUB{2}; 6 - log SUB{2}; 3 = lo...
-「偶数の目」がでる確率は 1/2 なので、
選択的情報量である - log SUB{2}; (1/2) = 1 SUB{(bit)}; ...
サイコロのように、すべての事象の出現確率が均等である場合...
しかし、実際には事象ごとに、出現確率は異なります。
例えば、水[ ] の空欄を埋める問題では、水[色]や水[曜]は比...
参考:[[熱力学におけるエントロピー>Entropy]]
~
***なぜ対数を使うのか
刺激・情報に対する人間の感覚は、物理量の対数をとるとちょ...
というのが対数をとる理由です。
-例えば、ひらがな2文字と4文字で、表現できる量を比較して...
--2文字(2桁)で表現できるのは、50SUP{2}; = 2,500通り
--4文字(4桁)で表現できるのは、50SUP{4}; = 6,250,000通り
ということで、4文字は2文字の 2,500倍の表現が可能です。
-しかし人間の感覚では、「4文字は2文字の2倍」という感じ。
「桁数」をそのまま情報量とする方が直感に合います。
-そこで、表現できる数について、50を底とする対数をとると
--2文字(2桁)の場合は、log SUB{50}; 2,500 = 2
--4文字(4桁)の場合は、log SUB{50}; 6,250,000 = 4
と「桁数」に戻って、人間がふつうに感じる「情報の量」に一...
-ちなみに、bit(binary digit)という単位は、2を底とする対...
2進数の世界では、N桁で2SUP{N};とおりの表現が可能なので、
log SUB{2}; 2 SUP{N}; = N bit つまり桁数がそのままビット...
~
***事例研究
-コインを投げたとき・・「表が出た」という「知らせ」がもた...
可能性の数で考えれば log SUB{2}; 2 = 1 SUB{(bit)};
出現確率で考えれば - log SUB{2}; (1/2) = log &size(8)...
-音域1オクターブのメロディーで1音が担う情報量は
--7音階→8音 log SUB{2}; 8 = 3 SUB{(bit)};
--5音階→6音 log SUB{2}; 6 = 2.585 SUB{(bit)};
-1文字が担う情報量は
--英語(アルファベット):log SUB{2}; 26 = 4.7
--日本語(ひらがな):log SUB{2}; 50 = 5.644
英語を日本語に訳すと文字数が少なくなるのは、日本語1文字...
-2進数8桁 が担う情報量は、
0000 0000 〜 1111 1111 → 2x2x2x2x2x2x2x2 = 256 通り
logSUB{2};256 SUB{(bit)}; = 8 SUB{(bit)};
一般に、2進数N桁 の情報量は N SUB{(bit)}; になります。
-キーボード上にある英字、数字、記号、1タイプが担う情報量は
英字、数字、記号の総数は約200種類 log SUB{2}; 200 = 7.64...
つまり 8ビット=1バイト というのは、
欧米の人が使う文字を1つ表現するのに必要な情報量・・・に...
//冗長度 r = ( H0 - H ) / H0
//英語の場合 r = ( log SUB{2}; 26 - 1.3 ) / log SUB{2}; ...
// となり、72%が節約可能であることがわかります。
~
***参考:関数電卓で対数計算
__[[関数電卓>https://design.kyusan-u.ac.jp/socialdesign/?...
log(256,2)
//http://web2.0calc.com/
~
***情報量と感じ方
-情報量が小さすぎる:単調 退屈 おもしろくない
-''情報量が適度に大きい:なるほど! 面白い!''
-情報量が大きすぎる:複雑 難解 不快感
~
***「秩序」について
情報とは、外界から得る知識内容のことであり、
記号のセリーが担っている秩序の尺度である(N.ウイナー)。
人間は自ら秩序を作る生き物であり、また記号的に世界を
秩序立てて見ようとする生き物だといえます。
人間の作る秩序には、先行するイメージとしての設計図、
すなわちデザインがあります。
「最も巧みな蜜蜂と最も無能な建築家の違いは、
建築家が設計図にもとづいて仕事をすることである。」
P.J.Wilson(『人間-約束するサル』佐藤俊訳)
~
***秩序(情報)を捉える「知識ベース」について
あらゆる情報の認知には、「基準」や「準拠枠(Frame of Refe...
例えば、桜が美しくみえるかどうか・・・という話しでも、
それを見る者の「桜についての知識のありかた」が大きく影響...
~
***関連リンク
-[[Wikipedia: 情報]]
-[[Wikipedia: 情報量]]
-[[Wikipedia: 情報理論]]
-[[Wikipedia: クロード・シャノン]]
-[[Wikipedia: ジョン・フォン・ノイマン]]
~
~
**情報の哲学
***情報の空間性・時間性
松岡正剛(「知の編集工学」)に、有名な言葉があります。
情報は、ひとりでいられない
-我々が「情報」をどのように扱っているか、また遺伝「情報」...
-例えば、「赤」は単体では意味をもちませんが、「青」と組み...
~
***差異/言語/情報
最も基本的な「情報化」は、それに「名を与える」ということ...
言語化されてはじめてそれは情報になります。 > [[言葉とは何...
物事を「差異化」して「関係づけ」すること・・
~
***情報デザインの起源
ブレンダ・ダービン(「情報デザイン原論」)によれば、「情報...
「情報」は、無秩序でもあり、秩序でもある現実を明快に理解...
人間が考案(デザイン)した道具である。 ブレンダ・ダービン
-情報の起源 > [[イメージの起源>PrimitiveImagery]]
-[[人はなぜ「情報」を遺すのか?>History]](時間軸比較)
--[[ホモサピエンス>http://ja.wikipedia.org/wiki/%E3%83%92...
--[[人類拡散のルート>GoogleImage:人類拡散のルート]]
-[[類人猿は「情報」を扱うのか?>HomoSapiens]](水平軸比較)
--[[進化の隣人 チンパンジー>http://ja.wikipedia.org/wiki/...
--[[チンパンジーの絵>http://langint.pri.kyoto-u.ac.jp/ai/...
--[[チンパンジーの音楽>Google:チンパンジー リズム]]
//-そもそも「絵を描いて楽しい」のはなぜか?
//-喜んでいるのは「脳」?
//-どんなときに「脳」は喜ぶのか?
~
~
**情報量と視覚情報デザイン
***平面構成と情報量
&ref(Fig1.jpg,nolink,);
~
***文脈(コンテキスト)によって変化する情報量
文脈からある程度推理できる情報要素の出現 → 情報量小
文脈からは推理しにくい情報要素の出現 → 情報量大
''筆箱とペンと三角定規 ←→ 土曜日とペンと腕時計''
筆箱・三角定規に並置された「ペン」と、 土曜日・腕時計に並...
''空を見上げて ←→ 空を持ち上げて''
文脈的に推測しにくい言葉が出現するという点で、上と同様に
右の表現の方が情報量の大きな表現といえます。
~
***編集によって変化する情報量
要素が単体で存在する状態 → 情報として認知されにくい
要素を反復(リフレイン)すると → 秩序感が生まれる(人間の意...
秩序のルールが単純・強固になると → 情報量は減少する
秩序に偏移を与える(対称性を破る)と → 緊張感増大/情報量増大
偏移が激しくなると → 情報量は増大するが、それがあまりにも...
同じ情報要素(映像で言うショット)も、編集によって前後関係...
~
***身近な「情報」の情報量を上げるには?
-言葉の順序を変える 「地球の [ 水 ] 」 → 「水の [ 地球...
-物事を「斜め」につなぐ、異なる地平にあるものをつなぐ
--例)[[「ひらがな」を「洗う」>YouTube:バカリズム 洗いや...
ひらがな| で…|に…|を…|は …|が…|も…|へ…|
~
~
**関連知識
-[[N進法(位取り記数法)>PositionalNotation]] N個の記号...
-[[論理回路>LogicCircuit]] コンピュータはどうやって計算...
~
~
終了行:
*情報理論
InformationTheory
~
**はじめに
情報とは、何らかの媒体を通じて発信者から、受信者に伝達さ...
//-ノーバート・ウィーナー(Norbert Wiener)によれば・・
// 情報とは、外界から得る知識内容のことであり、
// 記号のセリーが担っている秩序の尺度である
//
//-甘利俊一の「情報理論」によれば
// 情報とはわれわれに何事かを教えてくれるものであり、
// われわれの不確実な知識を確実にしてくれるものである。
~
***informationの語義・語源
-information n.
1. informすること
2. 告訴、略式起訴
-inform v.
1. 教育する、訓練する
2. 形づくる、生み出す
3. 知識を授ける、教える
4. …の特徴を与える;魂を吹き込む
5. 人に…を知らせる
-informer n.
1. 教授者、指導者
2. 通知者、情報提供者
&small(英語語源辞典,1997,研究社);
~
***物質・エネルギー・情報
物質・エネルギー・情報という3大抽象概念のうち、「情報」...
物質(紀元前) > エネルギー(17世紀) > 情報(19世紀)
''物質は''、我々の視覚・触覚で直感的に捉えられるもので、...
-デモクリトス(BC.460頃 ~ BC.370頃) 原子論
-アリストテレス(BC.384 ~ BC.322) 質料と形相 &small(...
''エネルギーは''、直接的に目に見える対象ではないがゆえに...
-力学的エネルギー(運動エネルギー + 位置エネルギー)
-熱エネルギー
-化学エネルギー(結合、燃焼)
-電磁気エネルギー(電気、磁気)
-電磁波エネルギー(光、放射線)
-核エネルギー(核分裂、核融合)
17世紀イタリアの物理学者ガリレオ・ガリレイによる「位置エ...
力学的エネルギーに加え、熱エネルギー、化学的エネルギー、
電気エネルギー、光(電磁波)のエネルギー・・
すべてのエネルギーの総和は、閉じた系において常に一定であ...
これによって、あらゆる物理現象が数式によって説明されるよ...
そして1905年、物理学者 A. アインシュタインの特殊相対性理...
物質とエネルギーは同じものであり、相互に変換できる
ということが発見されました。質量とエネルギーは '''''E = m...
''では、情報とは何か。''、哲学者 吉田民人は、数学者 N.ウ...
物質・エネルギーの 時間的 − 空間的、また定性的 − 定量的...
&small(吉田民人 , 情報・情報処理・自己組織性 , 組織科学 ,...
情報とは何か。物質・エネルギー・情報という3つの概念を並...
物質として存在する情報媒体は空間に拘束されるとともに、時...
~
***パターンとコード
パターンとコード。似ているようで異なる概念です。パターン...
-Pattern:規則性のある様式、模様、型、体系・・・
-Code:法、規則、規約、 慣例、作法、記号、符号、識別子・...
//記号化・符号化する行為をコーディングと言います。
~
***情報を捉える視点(概念モデル)
-情報は主に「視覚情報」「聴覚情報」(「触覚情報」)に分類...
これらは光・電波・音波・力といった物理的な存在であり、電...
-情報は、「情報源」から発生し「情報媒体」に載って移動する
--聴覚情報:情報は「音源」から発せられる
--視覚情報:情報は「二次光源」上にある(「光源」がそれを...
-情報にはアナログ(類似・連続的)とデジタル(数値・離散的...
--アナログは情報と媒体が一体となっている(フィルム、レコ...
--デジタルは情報と媒体が独立している(USB、ネットワーク・...
-情報はハードとソフトの区別でいえばソフトにあたる
--ハード(モノ)は劣化してやがてゴミになる
--ソフト(情報)はバージョンアップするとともに半永久的に...
-情報は「有限の要素」の配列として編集される
文字は有限の要素の集合で、個々の文字にはコードが割り当て...
参考:[[文字コードの確認>http://www.edu.i.hosei.ac.jp/~si...
-情報は複製される
--情報は物質ではないため複製コストがかからない([[限界費...
--複製・共有されない情報は情報として機能しない
//情報はひとりではいられない・・・松岡正剛
-情報は「生産完成品」ではない(送り手側だけで成立するもの...
--工場で生産される「製品」の大半は「生産完成品」
--文学・映像・音楽・・いずれも「受け手」の状態が関与する
~
***情報理論に関わる重要な人物
-[[ノーバート・ウィーナー>Google:ノーバート・ウィーナー]]...
-[[フォン・ノイマン>Google:フォン・ノイマン]](1903 - 195...
-[[クロード・シャノン>Google:クロード・シャノン]](1916 -...
&aname(amount_of_information);
~
~
**情報量と秩序
情報量の定義には、「その事象がもたらす知らせの大きさ」と...
~
***選択的情報量
事象Eが起こる確率を P(E) とするとき、 「事象 E が起こった...
//''情報量 = ーlogSUB{2};P(E) SUB{(bit)}; P:生起確率''
#mathjax( I(E) = \log_{2}{ \frac{1}{P(E)} } = -\log_{2}{...
情報量は、2を底とする対数で、単位は bit( binary digit :...
生起確率が低い事象ほど情報量は大きくなる。つまり「珍しい...
選択的情報量は、事象によっては簡単に記述することもできま...
//''情報量 = logSUB{2};N SUB{(bit)}; N:可能性の数''
#mathjax( I(E) = \log_{2}{N} )
~
***対数について
&mathjax(\log); って何?という方へ、以下のように理解いた...
-&mathjax(\log_{2}8 = 3); とは「2を3乗したら8になる」...
つまり &mathjax(\log_{2}8 = ); は「2を何乗すれば8になる...
「2を底とする8の対数は3である」などという言い方をしま...
-で、例題、&mathjax(\log_{2}256 = 8); (2を底とする256の...
-以下、参考までに &mathjax(y = \log_{2}X); のグラフです。
[[Google: y = log2 x]]
-ちなみに、&mathjax(\log_{2}16^2 = 2 \times \log_{2}16);...
つまり、指数はくくり出せるので、
&mathjax(- \log_{2}\frac{1}{N} = - \log_{2}N^{-1} = \log_...
事象の出現確率がすべて同じであれば、&mathjax( p = \frac{1...
~
***平均情報量(エントロピー,シャノン情報量)
すべての事象について「出現確率 x 出現時情報量」 の平均を...
//エントロピー = - ΣP(E)・log SUB{2}; P(E)
#mathjax( H(P) = - \sum_{ }^{ } P(E) \cdot \log_{2}{P(E)...
//\bullet
***エントロピーは何を意味するか
情報学におけるエントロピーは、簡単にいうと「わからなさ」...
結果が「どの程度予測しにくいか」といってもいいでしょう。
この概念を用いると、以下のように情報量を考えることができ...
ある「知らせ」の情報量
= はじめのわからなさ ー 「知らせ」のあとに残るわからなさ
サイコロを振ったとき「偶数が出てるよ」という「天使のつぶ...
-サイコロを振って何がでるか?の、はじめのエントロピーは、
ー Σ(1/6)・log SUB{2}; (1/6)
= ー 1/6 x log SUB{2}; (1/6) ー 1/6 x log SUB{2}; (1/6) ...
= ー log SUB{2}; (1/6) = log SUB{2}; 6 = 2.5849 SUB{(bi...
- 「偶数が出てるよ」というつぶやき(ヒント)が得られたと...
あとは2か4か6なので、あとに残るエントロピーは
ー Σ(1/3)・log SUB{2}; (1/3)
= ー 1/3 x log SUB{2}; (1/3) ー 1/3 x log SUB{2}; (1/3) ...
= ー log SUB{2}; (1/3) = log SUB{2}; 3 = 1.5849 SUB{(bi...
-3) よって「偶数の目が出た」という知らせの情報量は、
情報量 = 1) - 2) = log SUB{2}; 6 - log SUB{2}; 3 = lo...
-「偶数の目」がでる確率は 1/2 なので、
選択的情報量である - log SUB{2}; (1/2) = 1 SUB{(bit)}; ...
サイコロのように、すべての事象の出現確率が均等である場合...
しかし、実際には事象ごとに、出現確率は異なります。
例えば、水[ ] の空欄を埋める問題では、水[色]や水[曜]は比...
参考:[[熱力学におけるエントロピー>Entropy]]
~
***なぜ対数を使うのか
刺激・情報に対する人間の感覚は、物理量の対数をとるとちょ...
というのが対数をとる理由です。
-例えば、ひらがな2文字と4文字で、表現できる量を比較して...
--2文字(2桁)で表現できるのは、50SUP{2}; = 2,500通り
--4文字(4桁)で表現できるのは、50SUP{4}; = 6,250,000通り
ということで、4文字は2文字の 2,500倍の表現が可能です。
-しかし人間の感覚では、「4文字は2文字の2倍」という感じ。
「桁数」をそのまま情報量とする方が直感に合います。
-そこで、表現できる数について、50を底とする対数をとると
--2文字(2桁)の場合は、log SUB{50}; 2,500 = 2
--4文字(4桁)の場合は、log SUB{50}; 6,250,000 = 4
と「桁数」に戻って、人間がふつうに感じる「情報の量」に一...
-ちなみに、bit(binary digit)という単位は、2を底とする対...
2進数の世界では、N桁で2SUP{N};とおりの表現が可能なので、
log SUB{2}; 2 SUP{N}; = N bit つまり桁数がそのままビット...
~
***事例研究
-コインを投げたとき・・「表が出た」という「知らせ」がもた...
可能性の数で考えれば log SUB{2}; 2 = 1 SUB{(bit)};
出現確率で考えれば - log SUB{2}; (1/2) = log &size(8)...
-音域1オクターブのメロディーで1音が担う情報量は
--7音階→8音 log SUB{2}; 8 = 3 SUB{(bit)};
--5音階→6音 log SUB{2}; 6 = 2.585 SUB{(bit)};
-1文字が担う情報量は
--英語(アルファベット):log SUB{2}; 26 = 4.7
--日本語(ひらがな):log SUB{2}; 50 = 5.644
英語を日本語に訳すと文字数が少なくなるのは、日本語1文字...
-2進数8桁 が担う情報量は、
0000 0000 〜 1111 1111 → 2x2x2x2x2x2x2x2 = 256 通り
logSUB{2};256 SUB{(bit)}; = 8 SUB{(bit)};
一般に、2進数N桁 の情報量は N SUB{(bit)}; になります。
-キーボード上にある英字、数字、記号、1タイプが担う情報量は
英字、数字、記号の総数は約200種類 log SUB{2}; 200 = 7.64...
つまり 8ビット=1バイト というのは、
欧米の人が使う文字を1つ表現するのに必要な情報量・・・に...
//冗長度 r = ( H0 - H ) / H0
//英語の場合 r = ( log SUB{2}; 26 - 1.3 ) / log SUB{2}; ...
// となり、72%が節約可能であることがわかります。
~
***参考:関数電卓で対数計算
__[[関数電卓>https://design.kyusan-u.ac.jp/socialdesign/?...
log(256,2)
//http://web2.0calc.com/
~
***情報量と感じ方
-情報量が小さすぎる:単調 退屈 おもしろくない
-''情報量が適度に大きい:なるほど! 面白い!''
-情報量が大きすぎる:複雑 難解 不快感
~
***「秩序」について
情報とは、外界から得る知識内容のことであり、
記号のセリーが担っている秩序の尺度である(N.ウイナー)。
人間は自ら秩序を作る生き物であり、また記号的に世界を
秩序立てて見ようとする生き物だといえます。
人間の作る秩序には、先行するイメージとしての設計図、
すなわちデザインがあります。
「最も巧みな蜜蜂と最も無能な建築家の違いは、
建築家が設計図にもとづいて仕事をすることである。」
P.J.Wilson(『人間-約束するサル』佐藤俊訳)
~
***秩序(情報)を捉える「知識ベース」について
あらゆる情報の認知には、「基準」や「準拠枠(Frame of Refe...
例えば、桜が美しくみえるかどうか・・・という話しでも、
それを見る者の「桜についての知識のありかた」が大きく影響...
~
***関連リンク
-[[Wikipedia: 情報]]
-[[Wikipedia: 情報量]]
-[[Wikipedia: 情報理論]]
-[[Wikipedia: クロード・シャノン]]
-[[Wikipedia: ジョン・フォン・ノイマン]]
~
~
**情報の哲学
***情報の空間性・時間性
松岡正剛(「知の編集工学」)に、有名な言葉があります。
情報は、ひとりでいられない
-我々が「情報」をどのように扱っているか、また遺伝「情報」...
-例えば、「赤」は単体では意味をもちませんが、「青」と組み...
~
***差異/言語/情報
最も基本的な「情報化」は、それに「名を与える」ということ...
言語化されてはじめてそれは情報になります。 > [[言葉とは何...
物事を「差異化」して「関係づけ」すること・・
~
***情報デザインの起源
ブレンダ・ダービン(「情報デザイン原論」)によれば、「情報...
「情報」は、無秩序でもあり、秩序でもある現実を明快に理解...
人間が考案(デザイン)した道具である。 ブレンダ・ダービン
-情報の起源 > [[イメージの起源>PrimitiveImagery]]
-[[人はなぜ「情報」を遺すのか?>History]](時間軸比較)
--[[ホモサピエンス>http://ja.wikipedia.org/wiki/%E3%83%92...
--[[人類拡散のルート>GoogleImage:人類拡散のルート]]
-[[類人猿は「情報」を扱うのか?>HomoSapiens]](水平軸比較)
--[[進化の隣人 チンパンジー>http://ja.wikipedia.org/wiki/...
--[[チンパンジーの絵>http://langint.pri.kyoto-u.ac.jp/ai/...
--[[チンパンジーの音楽>Google:チンパンジー リズム]]
//-そもそも「絵を描いて楽しい」のはなぜか?
//-喜んでいるのは「脳」?
//-どんなときに「脳」は喜ぶのか?
~
~
**情報量と視覚情報デザイン
***平面構成と情報量
&ref(Fig1.jpg,nolink,);
~
***文脈(コンテキスト)によって変化する情報量
文脈からある程度推理できる情報要素の出現 → 情報量小
文脈からは推理しにくい情報要素の出現 → 情報量大
''筆箱とペンと三角定規 ←→ 土曜日とペンと腕時計''
筆箱・三角定規に並置された「ペン」と、 土曜日・腕時計に並...
''空を見上げて ←→ 空を持ち上げて''
文脈的に推測しにくい言葉が出現するという点で、上と同様に
右の表現の方が情報量の大きな表現といえます。
~
***編集によって変化する情報量
要素が単体で存在する状態 → 情報として認知されにくい
要素を反復(リフレイン)すると → 秩序感が生まれる(人間の意...
秩序のルールが単純・強固になると → 情報量は減少する
秩序に偏移を与える(対称性を破る)と → 緊張感増大/情報量増大
偏移が激しくなると → 情報量は増大するが、それがあまりにも...
同じ情報要素(映像で言うショット)も、編集によって前後関係...
~
***身近な「情報」の情報量を上げるには?
-言葉の順序を変える 「地球の [ 水 ] 」 → 「水の [ 地球...
-物事を「斜め」につなぐ、異なる地平にあるものをつなぐ
--例)[[「ひらがな」を「洗う」>YouTube:バカリズム 洗いや...
ひらがな| で…|に…|を…|は …|が…|も…|へ…|
~
~
**関連知識
-[[N進法(位取り記数法)>PositionalNotation]] N個の記号...
-[[論理回路>LogicCircuit]] コンピュータはどうやって計算...
~
~
ページ名: