チキン南蛮、カレー南蛮、鴨南蛮、ミシン、ウィキ

Chicken nanban jetalone in Tsukishima, Tokyo

 

 

写真はWikipediaの「チキン南蛮」から。写真のライセンスはCC BY 2.0

 

 チキン南蛮の「南蛮」とはなんだろうと調べると、揚げた鶏を「南蛮酢」につけたものが起源で、南蛮酢の代わりにタルタルソースを使うようになったものらしい。じゃあもう南蛮関係なくない?チキンタルタルでよくない?と思うのだが、名前というのは一度決まってしまったらそういうものになってしまうのだろう。

 

 ところで「南蛮酢」とは、「南蛮漬け」に使われる甘酢の一種で、お酢に砂糖、唐辛子、ネギなどを加えたものらしい南蛮酢の「南蛮」がどこから来たのかといえば、唐辛子を「南蛮からし」とも言うことからではないかと思うが、よくわからん。

 

 僕は岩手の出身だが、故郷の老人たちは唐辛子のことを「南蛮」と言っていた。これも「南蛮辛子」の「辛子」が失われて「南蛮」だけ残ったものらしい。言葉というのは思わぬ省略のされ方をするものだ。「南蛮」は古代中華思想における「南方の蛮族」のことであるが、中世日本で東南アジア経由でやってくるヨーロッパ人が「南蛮人」と呼ばれ、彼らのもたらすものが「南蛮」という前置詞付きで語られた。「南蛮から渡来した辛子」だから「南蛮辛子」である。なお、現在一般に使われる「唐辛子」の「唐」も語源は中国唐王朝の「唐」であろうが、「南蛮」と同様「外国」を表す一般的な言葉になっていたわけで、要するにどちらも「外国の辛子だよ」と主張しているに過ぎない。「辛子」という本質を表す部分が失われ、「外国の」という前置詞だけ残ってしまったわけだ。唐辛子を「南蛮」と呼ぶのは、唐辛子を「唐」と呼ぶ、あるいは「外国の」と呼ぶのと変わらない。考えてみれば珍妙な話である。それが定着したのは「南蛮」という言葉が唐辛子以外ほとんど使われなかった。そのため混乱することがなかったという事なのだろう。

 

 カレー南蛮は、関東で言うカレーうどんの事であるが、この「南蛮」は大阪の難波ネギの「難波」が訛ったものと言われている。え?ヨーロッパの南蛮じゃないの?大阪の難波なの?確かにカレーうどんにはネギが入ってることが多いけど、マジで??

 

 もっとわからないのが鴨南蛮で。これ、カモとネギの入った蕎麦料理なのだけど、この「南蛮」はWikipediaによれば「江戸時代に来日した南蛮人がネギを好んで、健康保持のために食べたためと言われる」って書いてある。えええ?こっちは難波ネギの難波じゃなくて南蛮人なの???

 

 だから「南蛮」と略すのやめたら良かったのに。これじゃミシンと同じじゃないの。ミシンは英語で Sewing Machine。ソーイングマシンという。ソーイングは「縫い」「マシン」はもちろん「機械」訳すなら「縫い機」であるが、なぜか日本で「ソーイング」が抜けて「マシン」の部分だけ残り、「ミシン」となった。ミシンの意味はマシン、つまり「機械」である。ミシンを前に「これはなんですか?」と聞かれて「機械です」とは言わないだろう。相当珍妙な名前なのである。

 

 これらはもはや定着してしまって直しようがないけれど、今からでも防止できる珍妙略語としての「ウィキ」をなんとかしよう。この言葉、Wikipediaの略語として10年位前からカジュアルに使われているけど、もともとWikiというのは、Webブラウザから簡単に編集できるWebページの仕組みを作った人がいて、それをWikiと名付けたことに始まる。そしてこれが「みんなで百科事典つくろう」というWikipediaプロジェクトに採用された。Wikiの仕組みを使ったエンサイクロペディア(百科事典)だからWikipediaなのだ。より日本語風に言うなら、「Wiki百科事典」とでもいうべきものだ。これを「ウィキ」と略したら、「百科事典」が消えてしまうのである。もちろんWikiというのは外部から編集ができるWebページの仕組みであるので、Wikiを使ったWikipedia以外のサイトがとても沢山存在する。Wikipediaを「ウィキ」と略することは、それらすべてとごちゃまぜにすることに繋がるのだ。一つ頼むよ。

 

2023年のMSX40周年に向けてまたなんかやらないかな、MSX3とか

2002年から2013年あたりにかけて、MSXリバイバルの波があった。(あったということにしよう)ASCII公式エミュレーターMSXPLAYerや、FPGAを使った1チップMSXの発売、2013年はMSX30周年だったので、ムック本やWebでの振り返り記事なども充実していた。この次に何かやるとしたら、MSにお願いしてMSXBIOSとBASICのコードをオープンにしてもらうとか。MSX3を思い切って規格決めてみるとか(意味有るんだろうか)

 

ソフトウェアエミュレーターに関して、以前のMSXPLAYerのときはWindows上のアプリケーションが当たり前に使用されたのだけど、今だと他にも選択肢があると思うんだよね。Laspberry PiもMSXエミュレーションなら十分なパワーが有るし。あれにスロットつければ1チップMSX以上に融通の効くエミュレーションハードウェアとしてのMSXができるんじゃなかろうか。内蔵GPUの性能も、あきらかにV9958とかの真似をエミュレーションでやってもぜんぜんOKだろうし、V9958/V9990切り換えのAPIを構築してもいいんじゃないだろうか。

 

あと、turboRのR800を、ザイログのeZ80で置き換える改造とかはどうだろう。改造ってもそう簡単にいかないんじゃないかと思うのだけど、性能だけ見れば、eZ80は50MHz駆動できるし、3段パイプラインでクロックあたり3倍速。ざっとZ80 4MHzに対して30倍以上の速度を叩き出すわけで、理論値で10倍速と言われたturboRの3倍以上速くなるんじゃないだろうか。ただ32ビット乗算命令とかないので、R800モードをいかしたturboRソフトとかは動かないかもしれない。

 

MSXでできることはまだまだいろいろ有ると思うんだよな。できたからどうだっていう話だけど、それをやるのがマニアだろうしw。

古川享ブログのアーカイブ

 古川享さんといえば日本のパソコンの歴史における生き字引みたいな人で、もとMSKKの社長→会長。日本におけるマイクロソフトの最初の総代理店、アスキーマイクロソフトアスキーから出向、メーカー対応をメインでやってたら、代理店契約を打ち切ってMS本社が日本マイクロソフトを設立したときに引き抜かれて社長に、そしてのちに会長にと、日本におけるマイクロソフトのトップを長いこと務めてたすごい人だ。

 会長辞任前後、2004年からやっていたブログは、業界の裏話なども色々あって非常に面白かったのだけど、MSがやってた独自のWindows Live Spaceというサービスの上に載っていて、このサービスが終了したことでコンテンツが失われてしまった。

 

 その古川さんが、先日facebook本田雅一さんの記事(東芝問題)に寄せていたコメントがすげえ興味深い話てんこ盛りで、かつての古川享ブログを思い出すものだった。ソニーのブルーレイVS東芝のHD DVDのとき、古川さんがブルーレイを押したけど、MSが東芝の嘘つきに乗せられてHD DVDを支持してて、その社内抗争的なあれで古川さんが悪いことにされそうになってやめたとか、面白すぎる話がいっぱい。

www.facebook.com

 

 この記事読んで、「あー、デジタルテレビ規格ですげえぶっちゃけてた古川さんのブログ、また読みたいなあ」と思って探したところ、インターネットアーカイブに残ってる事がわかった。

古川 享 ブログ: 放送・通信の在り方に関する、私見その9

 このブログの中で「砧の某研究所」「某放送局」とあるのは基本NHKのことだ。とにかくインターレースの1080iにこだわって720pを亡き者にしようと圧力をかけてくる悪代官みたいなNHK。なんとも面白すぎる。そもそも、デジタルテレビにインターレース規格は基本不要なのだ。あれはブラウン管時代に上から下まで電子銃で捜査して蛍光体を光らせる方式では、走査線の下端に到達する頃には上端の画像が消えてしまうから、一画面の画像を飛び越しスキャンで二回上から下まで舐めて完成させるというものだ。ブラウン管時代でも末期にはフレームバッファを装備したテレビも出ていて、こうなると実質的にはインターレース表示の必要はなかったのだ。インターレース走査の表示装置というのは、要するに画面データを記憶するメモリがなく、リアルタイムで上から下まで表示しつつちらつきを押さえる必要から生まれたトリックであり、回路部品が真空管だった時代に作られた物だ。ようするに化石的規格である。現代のテレビの中身は実質パソコンであり、これが表示する画面はプログレッシブであるのが正しい。インターレースはすだれノイズの元になったり、いいことはほとんどないのだ。

 

 当然だけど、解像度という点では、720pは1080iに劣る。ただし、1080iは地デジで確保できる転送レートではかなり厳しい規格なのだ。ちなみに現代のアニメは制作現場ではほとんど720p、1280×720で作られている。これを地デジの1080p、1440×1080にアップコンバートして放送されている。その結果帯域不足で派手な魔方陣がぐるぐる回ってビーム発射したりするシーンでブロックノイズが出ることになる。古川享さんが頑張ってNHKに抵抗した結果、720pは放送規格としては残ったのだけど、現実の放送ではCMと本編の切り替えで解像度変わったりすると一瞬表示乱れたりするかもしれないというアレで、1080iに統一されてるのが現状だ。youtubeのように、各種解像度を適切に切り替えて表示するというのはなかなか難しいのだろうなあ。

 

おまけ。

 

 1080iと一言で言っても、その解像度は1440×1080、1920×1080と二種類ある。地デジは帯域が狭いので1440×1080で送出されている。ピクセルが正方形であれば、1440×1080は4:3の比率で、いわゆる昔のテレビ、スタンダードサイズになる。これを横方向に引き延ばして16:9のビスタサイズにしている。このように、地デジは出発時点で解像度を落としているのだ。今後4K、8K放送が行われるとしても、地デジの帯域では全く足りないので、おそらく10年20年過ぎた未来、テレビとは衛星放送かIPネットワークで配信される物になり、いまの地上波は遠からず廃れてしまうと思う。

トーヨーリンクスという夢の会社

 かつてコダックのフィルム現像を一手に引き受けていた東洋現像所という会社があった。ここが1980年代に、コンピューターグラフィックスに乗り出す。トーヨーリンクス。現IMAGICAである。

 

 大阪大学と組んで、日本のCGを牽引したのがトーヨーリンクス。当時グーローシェーディングやフォンシェーディングを超えて、光学を本格的にコンピューターで計算するレイトレーシングが「リアルなCGの本命」としてもてはやされていた。レイトレーシングは、画面のピクセルが空間を逆にたどって光源まで進む過程を計算し、ピクセルの色と濃度を計算するもので、フォトリアリスティックなCG作成にはこれしかないと思われていた。ただし、この技法で画面を作るには非常に計算資源を必要とし、一画面の静止画を作るのに一晩かかるような時代だった。

 レイトレーシングは、画面を構成するピクセル毎に光路を計算しなければいけない。逆に言うと、ピクセル毎にコンピューターが計算すれば一瞬で一画面ができあがるのである。大阪大学とトーヨーリンクスは、かつてない大規模CPUクラスターを作成する。これがLINKS-1とLINKS-2である。

 

 細かいことは記憶にないのだけど、LINKS-1はZ80ボードを大量にスタックしたタンスのようなコンピューターだったと思う。LINKS-2はZ8000でこれを行ってたはず。ただし、これらも1ピクセルに一つのマイコンを割り当てるほどの数はなかったと思う。たとえば640×480のピクセルを全部物理CPUに割り当てるなら、30万個のCPUが必要になる。さすがに当時そんなクラスタは組めなかった。1CPUあたり数百ピクセルレンダリングするだけでも、当時のCGとしてはかなりのハイパワーで処理できたはずだ。

 

 僕が大学生でトーヨーリンクスの会社説明会に行った時代、おそらくZ8000ボードを数百個重ねたラックがそこにあった。まあ一部屋占拠するCGプロセッサである。1986年かそこら、アメリカでシリコングラフィックスSGI)がCGコンピューターを開発していた時代だ。

 

 SGIは、その後1990年代にCG用コンピューターで一世を風靡することになるが、これはあくまでジオメトリエンジンという、座標変換とシェーディングのマシン。モデリング時に高速でポリゴン表示するための物で、最終的にフォトリアリスティックな絵を作るのはあくまでレイトレーシングで、これは相変わらずうんざりするほど遅かった。

 

 SGIが作ったジオメトリエンジンのアイデアは、後にパソコンのグラフィックボードに引き継がれ、ゲームでのリアルタイム3D表示がどんどん発展する。

 

 これらのグラボは初期の頃、同時ポリゴン表示数などで競ってて、とてもフォトリアルな画面を作ることはできなかったが、アンチエイリアシング、バーテックスシェーダー、プログラムシェーダーと発展していくうちに、もはやかつてのレイトレーシングと同等かそれ以上のリアリティを出すことができるようになる。また、グラボの中身はあくまで画像生成の段階的回路だったものが、汎用演算器の集合になっていき、ポリゴン表示以外のベクトル計算にも使われるようになっていく。

 

 こうなると、ようするにCPUが数百個とか数千個とか1チップに入ってるような物である。これで気づいちゃったんだろうね。数年前にNvidiaが、これを使ってレイトレーシング演算やりますってデモを公開した。

http://www.nvidia.co.jp/docs/IO/77604/OptiX-Billiards_large.jpg

あー、つまり30年前のトーヨーリンクスの夢が、ここで実現しちゃったわけだ。長かったねえ。

Googleフォトのおせっかいなアシスタント機能

Googleフォトの基本

 

 Googleフォトは、無料で無制限に写真をバックアップできるGoogleのサービスだ。ただし無料だとRAWデータも高画質JPEGに変換されてしまうので、本当の意味でのバックアップとはいえない。RAWのままで保存したい場合は容量に応じた課金プランを使用する必要がある。

 それはさておき、このGoogleフォト、画面の横に撮影日付が西暦表示がされ、そこをマウスでドラッグすることですばやくスクロールできるなど、なかなか操作性が良い。

f:id:juangotoh:20170220123318j:plain

 また、写真の共有も簡単で、Google+FacebookTwitter、個人ブログなどに簡単に貼り付けることができる。ただし、PCのWebインターフェースからだと、Twitterに貼り付ける際、リンク貼り付けになってしまって画像貼り付けにならないのは残念だ。スマホアプリ版だと写真をコピーして貼り付けてくれるのだけど……

 

 それはさておき、Googleフォトには「アシスタント」という機能があって、アップロードした写真を「勝手に」まとめてアルバムにしたり、加工したりしてくれる。使ってみて気づいたアシスタントの機能を以下に並べてみる。

 

アシスタント機能

アルバム

なんらかの「まとめられそうな単位で」写真をまとめてアルバムにする。「日曜日の午後、相模原市にて」「東京への旅行」などといったタイトルが入ることからして、日時、GPS情報などを調べてまとめているらしい。GPSの入っていない写真でも「旅行」などというタイトルで、確かに旅行にいったときの写真をまとめていることもあるので、画像から「旅行らしい」とGoogleのAIが判断しているのかもしれない。怖い。

例:

https://goo.gl/photos/8ZxtK88QHsnvzoyX7

ムービー

写真をスライドショー形式の動画にして、BGMをつける。写真の選択は「アルバム作成」と似たようなもので、一連の写真を並べて思い出っぽくしてくれる。BGMは数種類あるようだが、基本的にニュートラルでいかにも邪魔にならないループ系BGM。

例:

https://goo.gl/photos/9vBiJ2ttdb29uQv29

 

アニメーション

短い間隔で連続写真を撮ったものをつなぎ合わせてアニメーションにしてくれる。ムービーはあくまでスライドショーなのに対し、こちらは基本同じ構図の中で被写体が動いている物が採用されるらしい。パラパラ漫画的な効果を演出する。

例:

https://goo.gl/photos/TnYJ2x8n846td52H7

 

HDR

露出を変えて撮影した複数の同じ構図の写真があると、これをHDR合成したものを作成する。ゴーストリダクションなどは行ってくれないので、被写体が動いていると悲惨な画面になるが、アシスタントはそんなことは気にしない。

例:

https://goo.gl/photos/SQW73R2ZnectjFFa7

https://goo.gl/photos/Zj1Ku3GNbuweuUY89

 

パノラマ

横にずらしながら撮影した複数の写真が繋がりそうだったら合成してパノラマにする。

例:

https://goo.gl/photos/MQmJqWQUsr2etVnj8

 

スタイル

写真に各種フィルタ処理を施して加工する。これが発動するのは比較的珍しい。なんだろう。たまたまレトロな建物にレトロデザインの車がある写真を撮ったらインスタグラム風レトロ効果が発動したのだが、これもGoogleのAI技術だろうか。

例:

https://goo.gl/photos/UF2XLWi3E4p3ndx38

 

アシスタント発動条件の謎

これらのアシスタント機能、なにをアルバムにし、なにをHDRにし、なにをムービーにするかの基準は謎で、写真をアップロードした後アシスタントさんが自主申告で「新規アニメーション作りました」とか言ってくるのを待つしかない。アシスタントが作成したコンテンツは保存するかどうかが選べるので、無視すればなにも残らない。なお、アルバムくらいなら手作業でも編集できるが、HDRとかパノラマとか効果とかムービーとかアニメーションとかの機能は、アシスタントしか使えない。ムービーを見て「あ、この失敗写真削除したい」と思っても一切編集もできないし、自分で新規作成することもできない。なんとも不思議な機能である。

f:id:juangotoh:20170220131727j:plain

中世風ファンタジーで気になる白金貨

 毎度「小説家になろう」等のWeb小説ネタなのだが、これも一つのテンプレなのだろうけど、Web小説の中世風「剣と魔法の世界」において、大概の場合貨幣は銅貨、銀貨、金貨、白金貨が設定されている。金貨の価値は現代の日本円にして10万円程度とされていることが多いが、金貨の上に白金貨という貨幣があり、一枚で100万円とかそれ以上の価値を持つことになっている。作品によっては金貨の上が大金貨、その上が白金貨というパターンもあり、その場合白金貨の価値は1000万円以上。通常取引に使われることはなく、大規模な不動産取引などでまれに使われるくらいのレアな貨幣になっている。

 なぜそんな高額貨幣があるのかといえば、主人公は大概すごい戦闘力を持っていてそうそう狩れないドラゴンなどの上位モンスターを狩りまくったり、現代知識を生かした商品開発(リバーシなど)が大ヒットしてすごいお金を儲ける事になるためだと思うのだけど、ちょっと疑問なのは「白金貨」というものがどういう金属でできてるのか描写した作品があまりないことだ。字面からして白金、すなわちプラチナなのだろうかと思うのだけど、中世ヨーロッパ風世界の通貨として白金が出てくるとなにか違和感がある。現実の世界では、白金は古代エジプトなどで少数の使用例があり、南米などでも10世紀頃に装飾品に加工する技術があったらしいが、融点が高いため普通に溶かす火力がなかなか得られず、ヨーロッパで白金が加工できるようになるのは近代に入ってからだ。

 このてのファンタジー作品では、ミスリルオリハルコン、アダマンタイトといった希少な「ファンタジー金属」が登場することが多いが、これらが貨幣に使用されることは少なく、あくまで金貨より貴重な貨幣は「白金貨」なのだ。現実にもプラチナを使用した白金貨というものは存在するが、例えばアメリカのイーグル白金貨や、カナダのメイプルリーフ白金貨のように、額面に価格が印字されておらず、地金の価値で取引される物で、一般的な通貨として発行された物とは言えない。一般にこれらの白金貨は、金貨銀貨が本位通貨としてもはや用いられなくなった後の商品であり、きわめて現代的な印象を受ける。

 つまり、中世ヨーロッパ風異世界の通貨に白金貨というものが混ざると、そこだけ中世風でもファンタジー風でもなくなる気がするのだ。

 

 いや、最初の方で書いたとおり、「白金貨」が「白金」なのかどうかは謎なのだ。そもそも「白金貨」にルビを振っている作品を見たことがないので、読みも「はくきんか」「はっきんか」「しろきんか」どれだか判然としない。しかし、金、銀、銅が普通に現実のそれぞれに対応していると思われるので、やはり白金貨は白金なのだろうか。主人公も「え?白金?プラチナ?精錬できる炉があるの?」とか疑問に思って会話にでもしてくれれば、それへの返事から白金かどうか、白金を精錬できる技術があるのかなどの情報が明らかになって読者の方も安心できると思うのだけどなあ。

 

MFなオールドレンズはAFモードで使う

 デジタル一眼レフで、オールドレンズを使う趣味は結構多いのだけど、その説明をしているサイトを見ると、殆どの場合カメラの設定をMFモードにするようになっている。確かにオートフォーカス非対応のレンズでオートフォーカスは効かないので間違ってはいないのだけど、実はAFモードで使うとピンぼけをかなり予防することができるのだ。

 なお、僕はPENTAXの一眼レフしか持っていないので、他社の機種でこのやり方が通じるかは知らない。

 

 いまさらPENTAX K-rで恐縮だが、このようにボディ側にフォーカスモード切り替えスイッチがあるので、これをAFモードにする。なお、AFモードはAF.Sにしておく。AF.Cだとフォーカスがあっていなくてもシャッターが切れるのでこの場合MFモードとあまり変わらない。

 

 そもそもなぜマニュアルフォーカスレンズをつけたらMFモードにしなければいけないのか。それはAFモードだと、フォーカスが合わないとシャッターが切れないからだ。つまりAFモードでもしっかりフォーカスを合わせればシャッターは切れる。つまり、

 

 シャッターボタンを押しっぱなしにして、フォーカスリング回せば、フォーカスが合った瞬間自動的にシャッターが切れるのだ。この方法は意外と使い勝手がいい。試してみてはいかかだろうか。

 

作例:PENTAX K-r + smc PENTAX-A 28mm F2.8