はい、言い換えました。完全な引用:
インターネットは非常にうまく機能しているため、ほとんどの人はインターネットを人為的なものではなく、太平洋のような天然資源と考えています。そのような規模のテクノロジーでエラーが発生しなかった最後の時はいつですか?対照的に、Webは冗談です。 Webはアマチュアによって行われました。 -アラン・ケイ。
私はインターネットとウェブの歴史を理解しようとしていますが、この発言は理解しにくいです。私はインターネットが今はそれが設計されたものとは非常に異なるものに使用されているので、おそらくそれが要因であることを他の場所で読んだことがあります。
何がインターネットをとてもよくしているのか、そして何がウェブをそれほどアマチュアにしているのか?
(もちろん Alan Kay は間違いであり、ここに誰もAlan Kayはいないので、なぜ彼がそれを言ったのか正確に知ることはできませんが、可能なことは何ですか説明?)
*元のインタビュー*も参照してください。
彼は実際、インタビューの2ページ目のまさにそのトピックについて詳しく述べています。それは彼が嘆いているプロトコルの技術的な欠点ではなく、それはウェブブラウザデザイナーのビジョンです。彼が言ったように:
あなたはそれをミニオペレーティングシステムにしたい、そしてブラウザをした人々はそれをアプリケーションと間違えた。
彼は、プログラミング言語のWikipediaページがその言語でサンプルプログラムを実行できないことや、WYSIWYG編集の欠如など、Webが登場するずっと前からデスクトップアプリケーションで利用可能であったにもかかわらず、いくつかの具体的な例を挙げています。 23年後、元々のWebブラウザー設計の決定によって課せられた制限を回避し始めたばかりです。
ある意味で彼は正しかった。 HTML、HTTP、およびURLのオリジナル(仕様前)バージョンありましたアマチュア(標準の人々ではない)によって設計されました。そして、それぞれのデザインの側面と、それに続く(元の)仕様...は、(丁寧に言えば)以前の状態よりも良くありません。例えば:
HTMLは構造/コンテンツをプレゼンテーションから分離せず、これを修正するために一連の改訂...および追加の仕様(CSS)...が必要でした。
HTTP 1.0は非常に非効率的で、フェッチされた「ドキュメント」ごとに新しいTCP接続が必要です。
実際には、URL仕様は、本質的にアドホックで一貫性のない何かの仕様をリバースエンジニアリングする試みでした。スキームの定義の領域にはまだ穴があり、URLの構文規則(たとえば、どこでエスケープする必要があるか)はバロックです。
そして、人々が以前から関わっていたより多くの「専門的」標準があったならば、これらの「ミスステップ」の多くは行われていない可能性があります。 (もちろん、私たちは決して知りません。)
しかし、ウェブはこれらのことを素晴らしく成功させたdespite。そしてすべての信用はそれを実現した人々に向けるべきです。彼らが当時「アマチュア」であったかどうかにかかわらず、彼らは今やアマチュアではありません。
このようなシステムがどのように機能するかについて、ウェブを設計した人々(主にTim Berners-Lee)とAlan Kayの間の根本的な不一致が原因であると思われます。
Kay氏によると、理想的なブラウザは、実際には1つのタスク(インターネットからダウンロードしたコードを安全に実行する)だけのミニオペレーティングシステムである必要があります。 Kaysデザインでは、Webはページではなく、あらゆる種類のコード(安全である限り)を含むことができるブラックボックスの「オブジェクト」で構成されています。これが、ブラウザに機能を持たせるべきではないと彼が言う理由です。ブラウザーは、HTMLパーサーやレンダリングエンジンを言う必要はありません。これはすべて、オブジェクトによって実装される必要があるためです。これは、彼が標準を好まないように思われる理由でもあります。コンテンツがブラウザではなくオブジェクト自体によってレンダリングされる場合、標準は必要ありません。
明らかに、これは、現在のブラウザとWeb標準のバグと制限によってページが制約されている今日のWebよりも、はるかに強力です。
ウェブの発明者であるTim Berners-Leeの哲学は、ほぼ正反対です。 " The Principle of Least Power "は、HTTP、HTML、URLなどの基礎となる設計原則の概要を示しています。彼は、制限の利点を指摘しています。たとえば、HTMLなどの明確に宣言された言語を使用すると、分析が容易になり、Googleなどの検索エンジンが可能になります。 Kays Webでは、チューリングコンプリートブラックボックスオブジェクトのインデックス作成は実際には不可能です。そのため、オブジェクトに制約がないため、実際にはオブジェクトの有用性ははるかに低くなります。パワフルなオブジェクトが見つからない場合、どれほど価値がありますか?また、リンクとURLの標準的な概念がなければ、Googleのページランクアルゴリズムは機能しませんでした。そして、そのことについてはブックマークもしませんでした。もちろん、ブラックボックスウェブは、障害を持つユーザーにとってもまったくアクセスできません。
もう一つの問題はコンテンツ制作です。現在、さまざまなツールがありますが、最初からどのアマチュアでも、メモ帳でhtmlページを作成する方法を学ぶことができます。これがウェブをキックスタートさせ、山火事のように広めたものです。 Webページを作成する唯一の方法として、独自のレンダリングエンジンのプログラミングを開始する必要があるかどうかを検討してください。参入障壁は計り知れません。
JavaアプレットとSilverlightは、ある程度Kaysのビジョンに似ています。どちらのシステムも(ブラウザを実装できるため)Webよりもはるかに柔軟で強力ですが、上記の問題に悩まされます。そして、どちらのテクノロジーも基本的には水没しています。
Tim Berners-Leeは、ウェブを発明する前にネットワークと情報システムの経験を積んだコンピューターサイエンティストでした。 KayはWebの背後にあるアイデアを理解していないようで、したがって、デザイナーはコンピューティングの歴史を知らないアマチュアであると信じています。しかし、ティム・バーナーズ=リーは確かにアマチュアではなかった。
私はこれを、Kayが低レベルのプロトコルに慣れていないため、高レベルのWebよりもかなりクリーンであると想定していると読みました。彼が話している「専門家によって設計された」時代には、セキュリティ(スプーフィングはまだ簡単すぎる)、信頼性、パフォーマンスに関して依然として大きな問題がありました。これが、高速または高速にすべてを調整する新しい作業がまだ行われている理由です。パケット損失リンク。少し前に戻って、ホスト名は、人々が配布しなければならないテキストファイルを検索することで解決されました。
どちらのシステムも複雑な異種システムであり、いぼを修復したいときはいつでも、後方互換性に関する大きな課題があります。問題を特定し、修正するのは簡単ではありません。また、失敗した競合他社のいずれかが示すように、同じ学習曲線をたどらずに同等のものを設計することは驚くほど困難です。
生物学者がインテリジェントデザインの支持者に言うかもしれないように、どちらかを見て天才デザインを見ると、十分によく見ていない。
ええ、はい、私はアランにこの質問を何度もしました。たとえば、彼がポツダムにいて foncメーリングリスト にいたときです。以下は、最近の quote のリストからの抜粋です。
文字通り何十年にもわたって機能を追加しようとし、まだ元のブラウザが実行されたマシンで実行されたソフトウェアと一致しない数十年後、彼らはゆっくりと他の人が書いたプログラムを安全に実行すべきであるという考えに徐々に近づいています。 Chrome)のNative Clientを使用して、SysAdminの許可がなくても、非常に高速なプログラムを実行可能ファイルとして安全にダウンロードできるようになりました。
彼のさまざまな答えについての私の理解は、Webブラウザーは(HTML)文書を表示すべきではなく、おそらく充実させるべきではなく、単にプログラムを実行すべきだと彼が考えているということです。個人的には彼が間違っていると思いますが、どこから来たのかはわかります。 ActiveX、Javaアプレット、Flash、そして今では「リッチ」なJavaScriptアプリ)でこの種のことをすでに行っていて、その経験は一般に良くありませんでした。私の個人的な意見では、今でもほとんどのJavaScript重いサイトは、良いHTMLサイトから一歩離れたものであり、前進するものではありません。
理論的には、もちろん、それはすべて理にかなっています。基本的にドキュメント記述言語であるものにインタラクティブ性を少しずつ追加することは、プトレマイオスシステムにエピサイクルを追加することに逆行し、類似していますが、「正しい」答えは(リッチ)テキストはプログラムの特殊なケースであるため、プログラムを送信するだけです。
ただし、WWWが実際に成功したことを考えると、ゴールを私たちの理論に適合させないためにWWWを非難するのではなく、理論を変更するのが賢明だと思います。
インターネットやWebは、アマチュアや専門家によって発明されたとは言えません。これらの分野はまったく新しいものだからです。すべての人は発明される前はインターネットプロトコルがアマチュアだったため、インターネットの発明者もアマチュアでした。
私たちが本当に判断力を持っていたとしたら、結局のところインターネットはそれほど良くありませんでした。IPv6が必要です。そしてそれはアドレス空間だけではありません。 IPv6には、少数の異なるフィールドを持つ新しいヘッダーがあります。
インターネットやWebとのもう1つの大きな違いは、プログラマーがそれらをどのように認識するかです。プログラマーがインターネットと対話することはめったにありません。彼のIPの観点から見ると、アドレスがあり、TCPにポートがあり、さらにパッケージが送信されることが保証されます。それはそれだけです... Webでプログラマーがより強力な相互作用:HTTPメソッド、ヘッダー、HTML、URLなど。可能性がほとんどないものよりも、可能性がはるかに大きいものの限界が見られるのは正常なことです。これにより、インターネットとは言いたくない単純です:その下は一種の複雑ですが、この複雑さはネットワークおよび通信エンジニアによって処理され、限られた可能性で何かを構成することですが、Webでは基本的に無限の可能性がありますが、パケットのみに依存する複雑なアプリケーションを構築するタスク送信。
これら2つのテクノロジーの素晴らしさに関して、インターネットは非常にスケーラブルなテクノロジーであり、レイヤー化のアイデアは非常に優れたものであるため、インターネットは非常に高く評価されています。基本的に下位レベルでは、任意のテクノロジ(WLAN、イーサネット、トークンリングなど)を使用でき、標準の中間プロトコルとしてTCPおよびUDPが配置され、その上にIPが配置されます。基本的に、必要なアプリケーションプロトコルを追加できます。
Webがインターネットに強く依存しているため、Webの素晴らしさは、インターネットの素晴らしさに厳密に関連しています。しかし、インターネットもWebに依存していると思います。インターネットはWebの20年前に存在し、一種の匿名でしたが、Webの20年後、インターネットはユビキタスであり、これはすべてWebのおかげです。
TBLは60年代から続いているハイパーテキストの仕事について何も知らなかったので、この仕事はウェブのデザインを知らせていませんでした。彼はコンピューティングをポップカルチャーとしてよく語っています。そこでは、実践者は自分の歴史を知らず、継続的に「パンクを再発明」しています。
インターネットは、バラン、プージン、および同時代の人々によって発見されたパケット交換の概念のプロトタイプとして、非常にうまく機能しています。世論に反して、これは受け継がれたIPv4が完全なプロトコルアーキテクチャであること、またはIPv6が進むべき道であることを意味しません。 ARPANETとIPの開発に深く関わっていたJohn Dayは、2008年の本 Patterns of Network Architecture でこれを説明しています。
Webについては、リチャードガブリエルの言葉で「悪いほうが良い」です。 Tim Berners-LeeのアカウントWeaving the Webはまともです。 Gillies&CailliauによるWebの誕生方法は密度が高く、読みにくくなっていますが、詳細が多く、当時のパーソナルコンピューティングの他のイベントとの興味深いリンクがいくつかあります。ケイはそれを十分に信用しているとは思いません。
私は知りません、非Webインターネットの一部には恐ろしいいぼがあります。電子メールはウェブの前であり、インターネットの一部であり、標準は非常にオープンであり、スパムの問題に取り組む(しかし解決しない)には、多くのハックが必要です。
「アマチュア」とは、プログラミングスキルの不足ではなく、想像力の不足を指します。
Tim Berners-LeeのWebの根本的な問題は、開発者向けに構築されていないことです。 (これはAlan Kayのウェブとはまったく対照的です。)
TimのWebは、HT-markup-languageが散りばめられたジャーナル/記事を含むファイルを使用してWebに直接公開する非コーダー向けに構築されました。 1980年代のWordPerfectやMS-Wordに似ていますが、「<b> </ b>」をクリックする代わりに B アイコンを使用して、独自の「。doc "形式ではなく、開いている" 。htm "形式で保存します。 ここに発明が「<a>」タグです。これにより、これらの静的なジャーナル/記事をグローバルに相互リンクできます。
そして、それだけです。それがティムのWebビジョン全体です。彼のWebは単なる相互リンクされたグローバルなハイウェイです 静的-記事。多分あなたがお金を持っていたなら、Dreamweaver、 Nexus 、Publisher、Citydesk(?)などのようなエディターを購入できます。 <b> </ b> "タグをクリックして B アイコン。
..そして、彼のビジョンが意図したとおりに機能しなかったことがわかります。確かに、最初から世界はティムのビジョンが提供するものよりはるかに多くを望んでいた強力な赤旗があります:
レッドフラグ1:「スマートCGI」(PHP)の急上昇。
危険信号2:「スマートHTML」(Javascript)の急上昇。
最近では、Chrome-OS-is-the-browser-is-the-OS(exactlyの台頭など、さらに多くの問題が発生しています。 Kayはブラウザをbtw)と [〜#〜] wasm [〜#〜] /browser-extensionsにすることを意図していました。
一方、ティムのウェブとは対照的に、アランケイのウェブは、プログラマー向けに構築されたdynamicウェブです:相互リンクされたグローバルなハイウェイ 動的-プログラム。 「ページ」を必要とする非コーダーは、ウェブ上のプログラムを使用してページを公開するだけです。 (そして、プログラム自体は明らかにプログラマーによって作成されたものであり、HTMLのダブラーではありません。)
..これはまさに2000年代のティムのウェブの現状ですが、アランのウェブがあった場合、それは1990年代に行われたでしょう。2000年代にのみ「ワードプレスとフレンドスター」が存在する世界ではなく、代わりに1990年代にウェブが始まったとき、それらを正しく持っている。
..同様に、2040年代にSteam、Visual Studio、Warcraft、VM Wareのようなプログラムを使用する代わりに、2010年代に現在それらを使用する予定です。(遅延はこれらのプログラムが原因ですalready OS-is-not-the-browser向けに構築されているため、OS-is-the-browser-isで再構築するための経済的インセンティブが低下します-OS。)
つまり、thisは、ティムバーナーズリーが「ぼろぼろの静的ウェブ」を世に送り出すことによって、真の動的ウェブを殺したと人々が言っていることを意味しています。 「web 2.0」、「web 3.0」という言葉を聞いたことがありますか?もしティムのウェブの代わりにアランのウェブがあったら、それらは単に「ウェブ」と呼ばれたでしょう。しかし、TimのWeb 静的であるため、常に修正が必要です 。
ブラウザーベンダーがWebをどのように定義していてもWebは再構築できるため、すべての希望が失われることはありません。しかし、要点は、Web上で「発明」しているこれらすべての「最先端」のものは、ずっと前にすでに発明されたものであるということです。明日ではなく、今日はすべてそれをすでに持っているかもしれません。