今日のスマート業界で最もホットなトピックは、クラウド コンピューティング、ビッグ データ、人工知能です。それらは互いに関連があるようです。一般的に、クラウド コンピューティングについて話すときはビッグ データについて言及し、人工知能について話すときはビッグ データについて言及し、人工知能について話すときはクラウド コンピューティングについて言及します。これらは互いに補完し合い、切り離せないものです。技術者でないと、この3つの関係を理解するのは難しいかもしれないので、説明が必要です。
クラウドコンピューティング、ビッグデータ、人工知能の関係 1. クラウドコンピューティングはもともとリソース管理の柔軟性を実現することを目的としていた まず、クラウドコンピューティングについてお話しましょう。クラウド コンピューティングの本来の目的は、主にコンピューティング リソース、ネットワーク リソース、ストレージ リソースなどのリソースを管理することです。 1.1 データセンターの管理はコンピュータの設定に似ている コンピューティング、ネットワーク、ストレージ リソースとは何ですか?ノートパソコンを購入したいとします。どんなCPUが搭載されているか気にしますか?メモリはどれくらいありますか?これら 2 つのものをコンピューティング リソースと呼びます。 このコンピュータがインターネットにアクセスできるようにするには、インターネット ケーブルを接続するインターネット ポート、またはルーターに接続するためのワイヤレス ネットワーク カードが必要です。 100M 帯域幅などのネットワークを開設するには、家庭でも China Unicom、China Mobile、China Telecom などの通信事業者と契約する必要があります。その後、技術者がインターネットケーブルを持ってお客様のご自宅にお伺いします。技術者は、自宅内のすべてのコンピューター、携帯電話、タブレットがルーターを介してインターネットにアクセスできるように、ルーターと会社のネットワーク間の接続を構成するのを手伝ってくれる場合があります。それがインターネットです。 ハードドライブの容量はどれくらいですか? という質問もあるかもしれません。もともと、ハードドライブは 10G など非常に小さいものでした。その後、500G、1T、2T のハード ドライブは目新しいものではなくなりました。 (1Tは1000G)これがストレージです。 これはコンピューターにも当てはまりますが、データセンターにも当てはまります。非常に大きなコンピューター室があり、そこに多数のサーバーが積み上げられていると想像してください。これらのサーバーには CPU、メモリ、ハードディスクも搭載されており、ルーターに似たデバイスを介してインターネットにアクセスします。このときの疑問は、データセンターを運営する人々がこれらのデバイスをどのようにして統一的に管理するかということです。 1.2 柔軟性とは、いつでも好きなときに好きなだけ利用できることを意味します 経営の目標は、2つの側面で柔軟性を実現することです。どの2つの側面ですか?たとえば、CPU が 1 つ、メモリが 1G、ハードディスクが 10G、帯域幅が 1M の非常に小型のコンピューターが必要な場合もあります。彼に渡していただけますか?このような小さな仕様のコンピューターの場合、現在ではどのラップトップでもこれよりも優れた構成になっており、自宅のブロードバンドは少なくとも 100M になります。しかし、クラウド コンピューティング プラットフォームにアクセスすれば、このリソースが必要なときにクリックするだけで入手できます。 したがって、2つの側面で柔軟性を実現できます。 1 つ目は、必要なときにすぐに配達されるなど、いつでも入手できることです。これを時間的柔軟性と呼びます。 2 つ目の特徴は、好きなだけ持つことができることです。たとえば、非常に小さなコンピューターが必要な場合は、それを入手できます。あるいは、非常に大きなスペースが必要な場合、クラウド ディスクを例にとると、クラウド ディスクによって各人に割り当てられるスペースは非常に大きいようです。いつでもアップロードでき、いつでもスペースがあり、使い果たされることはありません。これをスペース柔軟性と呼びます。 空間的な柔軟性と時間的な柔軟性は、クラウド コンピューティングの弾力性とよく呼ばれるものです。 この弾力性の問題を開発し解決するには長い時間がかかりました。 1.3 物理デバイスは柔軟性に欠ける 最初の段階は、物理マシン、つまり物理機器の時代です。この期間中に、顧客がコンピュータを必要とする場合、当社はそれを購入し、データセンターに設置します。物理デバイスは確かにますます強力になっています。たとえば、サーバーには数百 GB のメモリが搭載されていることがよくあります。ネットワーク デバイスの場合、単一ポートの帯域幅は数十 GB または数百 GB になることがあります。たとえば、データセンターのストレージは少なくとも PB レベルです (1 P は 1000 T、1 T は 1000 G)。 ただし、物理デバイスでは大きな柔軟性を実現することはできません。まず第一に、欲しいものをいつでも手に入れることはできません。たとえば、サーバーやコンピューターを購入する場合、必ず調達期間が発生します。突然、あるユーザーがクラウドベンダーにコンピューターを起動したいと伝えました。物理サーバーを使用していた場合、その時点で購入することは困難でした。サプライヤーとの関係が平均的であれば、1 か月かかる可能性があります。サプライヤーとの関係が良好であれば、1週間かかります。ユーザーは 1 週間待った後、ようやくコンピューターが到着し、ログインしてアプリケーションをゆっくりと展開する必要がありますが、その結果、時間の柔軟性が非常に低くなります。 2つ目の問題は、スペースの柔軟性が良くないことです。例えば、上記のユーザーは非常に小さなコンピュータを望んでいますが、現在そのような小さなコンピュータは存在しません。わずか 1 GB のメモリと 80 GB のハード ドライブというユーザーのニーズを満たすためだけに、このような小さなマシンを購入することはできません。でも、大きいものを買ったらどうなるでしょうか?コンピュータが大きいため、ユーザーに請求する料金は高くなります。ユーザーは、このような小さなものしか使用しないと言うので、ユーザーにさらに料金を支払うように要求するのは不公平です。 1.4 仮想化ははるかに柔軟です 誰かが解決策を見つけました。最初の方法は仮想化です。ユーザーに必要なのは、非常に小さなコンピューターだけではないでしょうか?データセンター内の物理的な設備は非常に強力です。物理 CPU、メモリ、ハードディスクの一部を仮想化して顧客に提供したり、また、小さな部分を仮想化して他の顧客に提供したりすることもできます。各顧客は自分の仮想作品のみを見ることができます。実際、各顧客は大きなデバイス全体の小さな部分を使用しています。仮想化テクノロジーにより、さまざまな顧客のコンピューターが分離されているように見えるようになります。このディスクは私のもので、このディスクはあなたのものであると思われるかもしれません。しかし、実際には、私の 10G とあなたの 10G が同じ非常に大きなストレージに保存されている可能性があります。 さらに、物理デバイスが事前に準備されている場合、仮想化ソフトウェアは基本的に数分で非常に迅速にコンピューターを仮想化できます。したがって、任意のクラウド上にコンピューターを作成する場合、かかる時間はわずか数分です。それが理由です。 この空間的柔軟性と時間的柔軟性は基本的に解決されます。 1.5 仮想世界でお金を稼ぎ、感じる 仮想化の段階で最も強力だったのは VMware であり、同社は仮想化テクノロジーを最も早く実装した企業の 1 つでした。コンピューティング、ネットワーク、ストレージの仮想化を実現できます。この会社は非常に強力で、業績も非常に良好でした。同社の仮想化ソフトウェアも非常によく売れ、多額の利益を上げました。その後、同社は EMC (Fortune 500 企業であり、ストレージ製造のトップ企業) に買収されました。 しかし、この世界には、特にプログラマーなど、情熱的な人々がまだたくさんいます。情熱的な人は何をするのが好きですか?オープンソース。この世の多くのソフトウェアはクローズドソースかオープンソースのいずれかであり、ソースとはソースコードのことを指します。つまり、あるソフトウェアはよくできていて、誰もがそれを愛用しているのですが、そのソフトウェアのコードは非公開で、それを知っているのは自分の会社だけなのです。他に誰もそれを知りません。他の人がこのソフトウェアを使いたい場合、私に料金を支払う必要があります。これをクローズドソースと呼びます。しかし、世の中には、すべてのお金がひとつの企業によって稼がれているという事実に耐えられない大物たちが常に存在します。専門家は、あなたがこの技術を持っているなら、私にもできると考えています。あなたが開発できるなら、私にもできます。私は開発費を請求せず、コードを全員と共有します。世界中の誰でも使用でき、誰もがその恩恵を受けることができます。これをオープンソースと呼びます。 例えば、最近のティム・バーナーズ=リーは非常に感傷的な人です。 2017年、彼は「ワールドワイドウェブ、最初のブラウザ、そしてワールドワイドウェブの拡張を可能にした基本プロトコルとアルゴリズムを発明した」功績により2016年チューリング賞を受賞した。チューリング賞はコンピューター界のノーベル賞です。しかし、彼の最も称賛すべき点は、私たちが一般に www として知っている World Wide Web の技術を、無料で使用できるように世界中に貢献したことです。私たちが今インターネット上で行っていることすべてに対して、彼に感謝すべきです。もし彼がこの技術で金儲けすることができれば、ビル・ゲイツと同じくらい裕福になるだろう。 たとえば、クローズド ソースの世界には Windows があり、Windows を使用するすべての人が Microsoft に料金を支払わなければなりません。一方、オープン ソースの世界には Linux があります。ビル・ゲイツは、WindowsやOfficeなどのクローズドソースソフトウェアで多額の利益を上げ、世界一の富豪と呼ばれました。その後、何人かの大物が別のオペレーティング システム、Linux を開発しました。 Linux について聞いたことがない人も多いかもしれません。バックエンド サーバーで実行されるプログラムの多くは Linux 上で実行されます。たとえば、ダブルイレブンのショッピングをサポートするシステムは、Taobao、JD.com、Koala のいずれであっても、すべて Linux 上で実行されます。 たとえば、Apple があれば、Android もあります。 Apple の市場価値は高いが、Apple システムのコードを見ることはできない。そこで、何人かの専門家が Android 携帯電話のオペレーティング システムを作成しました。 Apple システムはオープンソースではないのに対し、Android システムは誰でも使用できるため、他のほぼすべての携帯電話メーカーが Android システムをインストールしていることがわかります。 仮想化ソフトウェアについても同様です。 VMware の場合、このソフトウェアは非常に高価です。その後、何人かの専門家が 2 つのオープンソース仮想化ソフトウェアを作成しました。1 つは Xen と呼ばれ、もう 1 つは KVM と呼ばれます。技術者でない場合は、これら 2 つの名前を無視できますが、後ほど説明します。 1.6 半自動仮想化と全自動クラウドコンピューティング 仮想化ソフトウェアは柔軟性の問題を解決するように見えますが、これは完全に真実ではありません。仮想化ソフトウェアは一般に仮想コンピュータを作成するため、仮想コンピュータを配置する物理マシンを手動で指定する必要があり、より複雑な手動構成が必要になる場合もあります。したがって、VMware の仮想化ソフトウェアを使用するには、非常に優れた認定を取得する必要があります。この資格を取得できる人の給与は非常に高く、これも複雑さを物語っています。そのため、仮想化ソフトウェアだけで管理できる物理マシンのクラスターの規模はそれほど大きくなく、通常は十数台、数十台、多くても百台程度です。これは時間の柔軟性に影響します。コンピュータを仮想化する時間は非常に短いですが、クラスターの規模が大きくなるにつれて、手動の構成プロセスはますます複雑になり、時間がかかります。一方、空間の柔軟性にも影響を及ぼします。ユーザー数が多い場合、クラスターのサイズはユーザーのニーズを満たすのに十分ではありません。リソースはすぐに使い果たされ、再度購入する必要が生じる可能性があります。したがって、クラスターの規模がどんどん大きくなると、基本的には数千台のマシンから始まり、数万台、さらには数千万台に簡単に達します。 NetEase、Google、AmazonなどBATを調べてみると、サーバーの数が恐ろしいほど多いです。仮想化されたコンピュータを配置する場所を選択し、多数のマシン間で対応する構成を行うことは、ほとんど不可能です。これを実行するには、依然として機械が必要です。 これを実現するためにさまざまなアルゴリズムが発明されており、そのアルゴリズムの名前は Scheduler と呼ばれています。簡単に言えば、スケジューリング センターがあり、何千台ものマシンがプール内にあります。ユーザーが必要とする CPU、メモリ、ハードディスクの仮想コンピューターの数に関係なく、スケジューリング センターは、ユーザーのニーズを満たすことができる大きなプール内の場所を自動的に見つけ、仮想コンピューターを起動して構成し、ユーザーが直接使用できるようにします。この段階をプーリングまたはクラウディングと呼びます。この段階で初めてクラウド コンピューティングと呼ぶことができます。この段階より前では、仮想化としか呼べません。 1.7 プライベートおよびパブリッククラウドコンピューティング クラウド コンピューティングには、大きく分けてプライベート クラウドとパブリック クラウドの 2 種類があります。プライベートクラウドとパブリッククラウドを結び付けてハイブリッドクラウドと呼ぶ人もいますが、ここではこれについては触れません。プライベート クラウドは、他者のデータ センターに展開される仮想化ソフトウェアとクラウド ソフトウェアのセットです。プライベート クラウドのユーザーは、非常に裕福な人が多いです。彼らは土地を購入し、コンピューター室を建設し、独自のサーバーを購入し、クラウドベンダーにそれらを自社の場所に展開させます。 VMware は仮想化に加えて、後にクラウド コンピューティング製品を立ち上げ、プライベート クラウド市場で大金を稼ぎました。いわゆるパブリック クラウドとは、クラウド ベンダー独自のデータ センターに導入される仮想化およびクラウド ソフトウェアのことです。ユーザーは多額の投資をする必要はありません。アカウントを登録しておけば、Web ページをクリックするだけで仮想コンピュータを作成できます。例えば、Amazon のパブリッククラウドである AWS や、中国の Alibaba Cloud、Tencent Cloud、NetEase Cloud などです。 Amazon はなぜパブリッククラウドを構築したいのでしょうか?アマゾンはかつて海外では比較的大きな電子商取引企業であったことは知られています。電子商取引を行っていたとき、特定の瞬間に皆が急いで買い物をするダブル11のようなシナリオに遭遇することは必然でした。誰もが急いで物を購入しているとき、クラウドの時間と空間の柔軟性が特に必要になります。必ずしもすべてのリソースを準備できるわけではないので、それは無駄になります。しかし、多くのユーザーがダブルイレブンで買い物をしたいのにログインできないのを見て、私たちはただ座って何もできないわけではありません。そのため、ダブルイレブンショッピングフェスティバル中に、電子商取引アプリケーションをサポートするために大量の仮想コンピューターが作成され、ダブルイレブンショッピングフェスティバルの後、これらのリソースは他の用途に解放されます。したがって、Amazon にはクラウド プラットフォームが必要です。 しかし、市販の仮想化ソフトウェアは高価すぎるため、Amazon は電子商取引で得た収益のすべてを仮想化ベンダーに渡すことはできません。その後、Amazon は、前述の Xen や KVM などのオープンソース仮想化テクノロジーをベースにした独自のクラウド ソフトウェアを開発しました。予想外に、Amazon の電子商取引事業はますます成功し、そのクラウド プラットフォームもますます成功しました。さらに、Amazon のクラウド プラットフォームは独自の電子商取引アプリケーションをサポートする必要があり、従来のクラウド コンピューティング ベンダーは独自のアプリケーションをほとんど持たない IT ベンダーがほとんどであるため、Amazon のクラウド プラットフォームはよりアプリケーション フレンドリーであり、急速にクラウド コンピューティングのナンバーワン ブランドに成長し、多額の収益を上げています。 Amazon がクラウド コンピューティング プラットフォームの財務報告を発表する前、人々は Amazon の電子商取引は利益を生んでいるが、クラウドも利益を生むのだろうかと推測していました。その後、財務報告書が公開されると、ただ金を稼いでいるだけではないことが判明した。昨年だけでも、Amazon AWS の年間収益は 122 億ドルに達し、営業利益は 31 億ドルでした。 1.8 クラウドコンピューティングで儲け、実感する パブリッククラウド企業第1位のAmazonは好調だが、第2位のRackspaceは平均的な業績だ。回避する方法はありません。これは、主に勝者総取りのモデルであるインターネット業界の残酷さです。したがって、2 番目がクラウド コンピューティング業界のものでない場合、多くの人は聞いたことがないかもしれません。 2人目は、ボスに勝てなかったらどうすればいいかと考えました。オープンソースにしましょう。前述のように、Amazon はオープンソースの仮想化技術を使用していますが、クラウド コードはクローズド ソースです。クラウド プラットフォームを構築したいが構築できない多くの企業は、Amazon が大金を稼ぐのを見ているしかありません。 Rackspace がソースコードを公開すると、業界全体が協力してプラットフォームをさらに改善できるようになります。 そこで、Rackspace と NASA は協力してオープンソース ソフトウェア OpenStack を作成しました。この図は OpenStack のアーキテクチャ図を示しています。クラウド コンピューティング業界に属していない人は、この図を理解する必要はありませんが、コンピューティング、ネットワーク、ストレージという 3 つのキーワードが示されています。また、コンピューティング、ネットワーク、ストレージのためのクラウド管理プラットフォームでもあります。 もちろん、2位の技術も非常に優れています。 Rackspace が想像したとおり、OpenStack を導入した後、クラウド コンピューティングを導入したい大企業はすべて熱狂しました。 IBM、HP、Dell、Huawei、Lenovoなど、想像できるすべての有名な大手IT企業が混乱に陥りました。結局、誰もがクラウド プラットフォームを構築したいと考えているのですが、Amazon と VMware がどれだけの収益を上げているかを見ると、彼らにできることは何もありません。自力で構築するのはかなり難しいようです。現在、オープンソースのクラウドプラットフォームである OpenStack により、あらゆる IT ベンダーがコミュニティに参加し、クラウドプラットフォームに貢献し、それを自社製品としてパッケージ化し、自社のハードウェア機器と一緒に販売しています。プライベート クラウドを構築した企業もあれば、パブリック クラウドを構築した企業もあり、OpenStack はオープン ソース クラウド プラットフォームの事実上の標準となっています。 1.9IaaS、リソースレベルでの柔軟性 OpenStack 技術が成熟するにつれて、管理できる規模も大きくなり、複数の OpenStack クラスターを、北京に 1 セット、杭州に 2 セット、広州に 1 セットなど、複数のセットに展開し、統一的に管理できるようになります。これにより、全体の規模がさらに大きくなります。この規模であれば、一般ユーザーの観点からすると、基本的に、欲しい薬を、欲しい時に、欲しいだけ手に入れることができることになります。クラウドディスクを例に挙げてみましょう。各ユーザーのクラウド ディスクには 5T 以上のスペースが割り当てられます。 1億人いたら、どれくらいのスペースになるでしょうか?実際、その背後にあるメカニズムは次のとおりです。スペースが割り当てられると、そのスペースのごく一部しか使用できない場合があります。たとえば、5T が割り当てられている場合、そのような大きなスペースは表示されるだけであり、実際に与えられるものではありません。実際は 50G しか使用していないため、実際に取得できるのは 50G です。ファイルをアップロードし続けると、割り当てられるスペースが増えていきます。全員がアップロードし、クラウド プラットフォームがほぼ満杯 (たとえば、70% が使用されている) であることがわかった場合、追加のサーバーを購入し、その背後にあるリソースを拡張します。これは透明であり、ユーザーには見えません。知覚的な観点から見ると、クラウド コンピューティングの弾力性が実現されます。実際、それは銀行に少し似ています。預金者はいつでもお金を引き出せると感じており、同時取り付け騒ぎが起こらない限り銀行は破綻しない。 ここで簡単にまとめてみましょう。この段階では、クラウド コンピューティングは基本的に時間的柔軟性と空間的柔軟性を実現し、コンピューティング、ネットワーク、およびストレージ リソースの弾力性を実現しています。コンピューティング、ネットワーク、ストレージは、多くの場合、インフラストラクチャと呼ばれます。したがって、この段階での弾力性は、リソースレベルの弾力性と呼ばれます。リソースを管理するクラウド プラットフォームはインフラストラクチャ サービスと呼ばれ、IaaS (Infrastructure As A Service) としてよく耳にします。 2. クラウドコンピューティングはリソースだけでなくアプリケーションも重要です IaaS では、リソース レベルで弾力性を実現するだけで十分でしょうか?明らかにそうではありません。アプリケーションレベルでも柔軟性があります。例を見てみましょう。電子商取引アプリケーションを実装するには、通常は 10 台のマシンで十分ですが、Double Eleven の場合は 100 台が必要です。これは簡単にできると思うかもしれません。 IaaS を使用すると、90 台の新しいマシンを作成できます。しかし、90 台のマシンは作成時には空であり、電子商取引アプリケーションはインストールされていません。貴社の運用・保守担当者は、それらを一つずつインストールすることしかできず、完了するまでに長い時間がかかります。リソース レベルでは弾力性が実現されますが、アプリケーション レイヤーで弾力性が実現されなければ、柔軟性は依然として不十分です。 この問題を解決する方法はありますか?そのため、リソース上のアプリケーションの弾力性の問題を管理するために、IaaS プラットフォームの上に別のレイヤーが追加されました。このレイヤーは通常、PaaS (Platform As A Service) と呼ばれます。このレイヤーは理解するのが難しいことがよくあります。実際には、大きく分けて 2 つの部分に分かれています。 1 つの部分を、自動的にインストールされる独自のアプリケーションと呼び、もう 1 つの部分を、インストールする必要のないユニバーサル アプリケーションと呼びます。 まず最初の部分、つまり独自のアプリケーションの自動インストールについてお話ししましょう。たとえば、自分で電子商取引アプリケーションを開発する場合、そのインストール方法はあなた以外には誰も知りません。たとえば、電子商取引アプリケーションをインストールする場合は、他のユーザーが電子商取引 Web サイトで商品を購入したときに支払いがアカウントに入金されるように、Alipay または WeChat アカウントを構成する必要があります。あなた以外は誰もそれを知りません。したがって、プラットフォームはインストール プロセスを支援することはできませんが、自動化することはできます。構成情報を自動インストール プロセスに統合するには、いくつかの作業を行う必要があります。たとえば、上記の例では、Double Eleven に新しく作成された 90 台のマシンは空です。これらの 90 台の新しいマシンに電子商取引アプリケーションを自動的にインストールするツールが提供できれば、アプリケーション レベルでの真の弾力性が実現できます。たとえば、Puppet、Chef、Ansible、CloudFoundary はすべてこれを実行できます。最新のコンテナ テクノロジー Docker では、これをより適切に実行できます。テクノロジーに携わっていない人は、これらの言葉を無視することができます。 2 番目の部分では、ユニバーサル アプリケーションをインストールする必要はありません。いわゆる一般アプリケーションとは、一般的に、データベースなど、比較的複雑だが誰もが使用するアプリケーションを指します。ほとんどすべてのアプリケーションはデータベースを使用しますが、データベース ソフトウェアは標準です。インストールとメンテナンスはより複雑になりますが、誰がインストールしても同じです。このようなアプリケーションは、標準の PaaS レイヤー アプリケーションに変換され、クラウド プラットフォーム インターフェイスに配置できます。ユーザーがデータベースを必要とすると、すぐにデータベースが表示され、ユーザーは直接使用できます。誰もが同じ方法でインストールするので、自分でインストールすればよく、クラウド プラットフォームで購入するためにお金を使う必要はない、と誰かが尋ねました。もちろん違います。データベースは非常に難しいものです。 Oracle だけでもデータベースから多額の収益を上げることができます。 Oracle を購入するのにも多額の費用がかかります。ただし、ほとんどのクラウド プラットフォームでは、MySQL などのオープン ソース データベースが提供されています。オープンソースなので、それほどお金をかける必要はありません。ただし、このデータベースを維持するには大規模なチームが必要です。このデータベースを Double Eleven をサポートするように最適化するには、1、2 年以上かかります。たとえば、自転車メーカーの場合、これを行うために非常に大規模なデータベース チームを採用する必要はまったくありません。コストが高すぎます。これを実行するには、クラウド プラットフォームに引き渡す必要があります。プロフェッショナルなものはプロフェッショナルな人々から生まれます。クラウド プラットフォームには、このシステムの保守に専念する何百人ものスタッフがいます。自転車のアプリケーションに集中するだけです。 自動的にデプロイされるか、またはデプロイの必要はありません。一般的に言えば、アプリケーション層についてはあまり心配する必要はありません。これが PaaS 層の重要な役割です。 スクリプト方式では独自のアプリケーションのデプロイメントの問題を解決できますが、環境によって問題は大きく異なります。スクリプトは、ある環境では正しく実行されても、別の環境では正しく実行されない場合があります。 コンテナはこの問題をより適切に解決できます。 Container は Container であり、Container の別の意味は container です。実際、コンテナのアイデアは、ソフトウェア配信用のコンテナに変えることです。コンテナの特徴は、包装と規格です。 コンテナがなかった時代には、A地点からB地点まで貨物を輸送する場合、3つの埠頭を通過し、船を3回乗り換える必要がありました。船から商品を降ろすたびに、商品は乱雑に置かれ、その後船に戻されて再びきれいに並べられます。そのため、コンテナがない場合、乗組員は出航前に船を乗り換えるたびに数日間陸上に留まらなければなりませんでした。 コンテナでは、すべての商品が一緒に梱包され、コンテナのサイズもすべて同じなので、船を変更するたびに、1 つのボックス全体を移動するだけで済み、数時間で完了します。乗組員はもはや上陸して長期間滞在する必要がなくなりました。 容器の持つ2大特性「包装」と「規格」を生活に応用した製品です。 では、コンテナはどのようにしてアプリケーションをパッケージ化するのでしょうか?コンテナについてはまだ学ぶ必要があります。まず、商品を梱包するには、商品同士が干渉せず、隔離された密閉環境が必要であり、これにより積み下ろしが便利になります。幸いなことに、Ubuntu の LXC テクノロジーは長い間これを実現してきました。 閉鎖環境で使用される主なテクノロジーは 2 つあります。 1 つは Namespace と呼ばれる一見分離されたテクノロジで、各 Namespace 内のアプリケーションは異なる IP アドレス、ユーザー スペース、プロセス番号などを参照します。もう 1 つは Cgroups と呼ばれる分離テクノロジで、マシン全体に大量の CPU とメモリがあっても、アプリケーションはその一部しか使用できないことを意味します。 いわゆるミラーリングとは、溶接した瞬間のコンテナの状態を保存することを意味します。孫悟空が「フリーズ」と言ったように、コンテナはその瞬間にフリーズし、その瞬間の状態が一連のファイルとして保存されます。これらのファイルのフォーマットは標準的であり、誰でもそれを見て、その時点で凍結された瞬間を復元することができます。イメージを実行時に復元するプロセス(つまり、イメージファイルを読み込んでその時点の状態に復元するプロセス)がコンテナを実行するプロセスとなります。 コンテナを使用すると、PaaS レイヤーでのユーザー アプリケーションの自動展開が高速かつスムーズになります。 3. ビッグデータがクラウドコンピューティングを採用 PaaS レイヤーの複雑な汎用アプリケーションは、ビッグデータ プラットフォームです。ビッグデータはどのようにして段階的にクラウド コンピューティングに統合されるのでしょうか? 3.1 小さなデータにも知恵が含まれている 当初、ビッグデータはそれほど大きくありませんでした。元々どれくらいのデータがあったか想像できますか?今では誰もが電子書籍を読んだり、インターネットでニュースを探したりしています。 1980年代に私たちが若かった頃は、情報量はそれほど多くありませんでした。私たちはただ本と新聞を読みます。 1週間の新聞には単語がいくつありますか?大都市でなければ、普通の学校の図書館には本棚が全部で数個しかありません。情報化が進み、より多くの情報が登場するようになったのはその後のことでした。 まずはビッグデータの中のデータを見てみましょう。構造化データ、非構造化データ、半構造化データの 3 つのタイプに分けられます。構造化データとは何ですか?固定形式と制限された長さを持つデータです。たとえば、フォームへの入力は構造化データであり、国籍:中華人民共和国、民族:漢族、性別:男性、これらはすべて構造化データと呼ばれます。最近では、Web ページなど、非常に長い場合もあれば、数文だけの場合もある、可変長で固定形式ではない非構造化データが増えています。たとえば、音声やビデオも非構造化データです。半構造化データは XML または HTML の形式です。テクノロジーに携わっていない人はそれを理解できないかもしれませんが、それは問題ではありません。 データは人々にとってどのように役立つのでしょうか?実際、データ自体は有用ではなく、特定の方法で処理する必要があります。例えば、毎日ランニングするときに身につけているブレスレットが収集するデータもデータですし、インターネット上の多くのウェブページもデータです。私たちはそれをデータと呼んでいます。データ自体は何の役にも立ちませんが、そこには情報と呼ばれる非常に重要なものが含まれています。データは非常に乱雑であり、整理され、クリーンアップされた後にのみ情報と呼ぶことができます。情報には多くのルールが含まれており、情報からルールを要約する必要があります。これを知識と呼びます。知識は運命を変える。情報はたくさんありますが、人によっては、その情報を見るのは時間の無駄に過ぎません。しかし、その情報からeコマースの未来を見る人もいれば、ライブストリーミングの未来を見る人もいるので、すごいことになります。情報から知識を引き出さずに、毎日友人の輪をチェックするだけでは、インターネットの波の傍観者でしかありえません。知識を身につけ、それを実際の戦闘に応用すれば、うまくやれる人もいます。これを知性と呼びます。知識を持っていることは必ずしも知恵を持っていることを意味するわけではありません。例えば、多くの学者は知識が豊富で、起こったことをさまざまな角度から分析することができますが、実際の仕事となると無力であり、知識を知恵に変換することができません。多くの起業家が素晴らしいのは、獲得した知識を実践に応用し、最終的に大きなビジネスを築き上げるからです。 したがって、データの応用は、データ、情報、知識、知恵の 4 つのステップに分かれています。これは多くの企業が望んでいることです。ほら、私はたくさんのデータを集めたんです。このデータを活用して次の意思決定を行い、製品を改善することはできますか?たとえば、ユーザーがビデオを視聴しているときに、ユーザーがまさに購入したいと思っている広告がユーザーの隣にポップアップ表示されます。または、ユーザーが音楽を聴いているときに、そのユーザーが本当に聴きたい他の音楽を推奨することもできます。私にとって、アプリやウェブサイト上でのユーザーによるマウスのクリックやテキスト入力はすべてデータです。その中からいくつかを抽出し、実践を指導し、知恵を絞って、ユーザーをアプリに夢中にさせたいと思っています。一度私のアプリにログインすると、ユーザーは離れようとしなくなります。彼らはクリックし続け、購入し続けます。妻がインターネットで買い物をし続けるので、ダブルイレブンの間はインターネットを切断したいと言う人が多いです。 A を購入した後、妻は B を勧めました。妻は「あ、私も B が好き。買いたいわ」と言いました。このプログラムはどうしてこんなに素晴らしくて賢いのでしょうか?それは私よりも妻のことを良く知っています。どうやってこれをやったのですか? 3.2 データを知恵に変える方法 データ処理はいくつかのステップに分かれており、完了して初めて知恵が生まれます。 最初のステップはデータ収集と呼ばれます。まず、データが必要です。データを収集する方法は 2 つあります。最初の方法はそれを手に入れることであり、より専門的には這うまたは掴むと呼ばれます。たとえば、検索エンジンはこれを実行します。インターネット上のすべての情報をデータセンターにダウンロードし、検索できるようになります。たとえば、検索すると、結果はリストになります。なぜこのリストが検索エンジン会社にあるのでしょうか?それは彼らがすべてのデータを入手したからです。ただし、リンクをクリックすると、そのウェブサイトは検索エンジン会社に属しなくなります。たとえば、Sina にニュースがあり、それを Baidu で検索すると、クリックしない限りそのページは Baidu のデータセンターにありますが、クリックすると表示されるページは Sina のデータセンターにあります。もう一つの方法はプッシュです。データ収集に役立つ端末はたくさんあります。たとえば、Xiaomi ブレスレットは、毎日のランニングデータ、心拍数データ、睡眠データをデータセンターにアップロードできます。 2 番目のステップはデータの送信です。データの量は非常に大きいため、データを役立つ前に処理する必要があるため、通常はキューで行われますが、システムはそれを処理できないため、キューを整えてゆっくり処理する必要があります。 3番目のステップはデータストレージです。現在、データはお金であり、マスターデータはお金のマスターに相当します。それ以外の場合、ウェブサイトはあなたが購入したいものをどのように知るでしょうか?それはあなたの歴史的な取引のデータを持っているからです。この情報は他の人には与えることはできません。それは非常に貴重なので、保存する必要があります。 4番目のステップは、データ処理と分析です。上記のデータは生データです。生データはほとんどが組織化されており、多くのジャンクデータが含まれています。したがって、高品質のデータを取得するには、クリーニングおよびフィルタリングする必要があります。高品質のデータの場合、分析を実行してデータを分類したり、データ間の関係を発見して知識を取得できます。たとえば、ウォルマートのスーパーマーケットでのビールとおむつの人気の物語は、人々の購入データの分析に基づいていました。男性は一般的におむつを買うのと同時にビールを買うことがわかった。このようにして、ビールとおむつの関係が発見され、知識が得られました。これは、ビールとおむつカウンターを互いに非常に近くに配置することにより、実際に適用され、知恵が得られました。 5番目のステップは、データ検索とマイニングです。検索とは検索を意味します。外部問題について質問がある場合は、Googleに尋ねてください。国内問題について質問がある場合は、Baiduに尋ねてください。国内と外国の両方の検索エンジンが分析されたデータを検索エンジンに入れたため、人々が情報を見つけたいときに、1回の検索でそれを見つけることができます。別のことは鉱業です。単に検索すると、人々のニーズを満たすことができなくなります。また、情報間の関係をマイニングする必要があります。たとえば、財務検索では、会社の株式を検索するとき、会社の幹部も掘り出したのですか?会社の株式のみを検索し、それが特にうまく上昇していることがわかったので、あなたはそれを買いに行きますが、実際にその幹部は株に非常に不利な声明を発行し、翌日に落ちた場合、これは大多数の投資家に害を及ぼさないのですか?したがって、知識ベースを形成するために、さまざまなアルゴリズムを介してデータの関係をマイニングすることが非常に重要です。 3.3ビッグデータの時代において、誰もがより明るい未来に貢献しています データの量が小さい場合、それを処理できるマシンは数個しかありません。徐々に、データの量がますます大きくなり、最も強力なサーバーでさえ問題を解決できない場合、どうすればよいですか?複数のマシンの力を集約する必要があり、誰もが仕事を成し遂げるために協力する必要があります。誰もが燃料を追加すると、火はより明るく燃えます。 データ収集に関しては、IoTの場合、大量の温度、湿度、監視、電気、その他のデータを収集するために、何千もの検出デバイスが外部に展開されます。インターネットWebページの検索エンジンの場合、インターネット全体のすべてのWebページをダウンロードする必要があります。これは明らかに1つのマシンでは不可能です。 Web Crawlerシステムを形成するには、複数のマシンが必要です。各マシンは部品をダウンロードし、同時に機能して、限られた時間内に多数のWebページをダウンロードします。 データ送信に関しては、メモリ内のキューは大量のデータによって間違いなく圧倒されるため、ハードディスクに基づいた分散キューが作成されます。このようにして、キューは複数のマシンで同時に送信できます。どれだけのデータを持っていても、私が十分なキューと十分な厚いパイプラインを持っている限り、私はそれを処理できます。 データストレージに関しては、単一のマシンのファイルシステムがすべてのデータを保持できないため、これを行うには大きな分散ファイルシステムが必要であり、複数のマシンのハードディスクを大規模なファイルシステムに組み合わせています。 別の例は、データ分析です。これには、大量のデータの分解、統計、集約が必要になる場合があります。 1つのマシンは確かにそれを処理できず、分析を完了するには永遠に時間がかかります。したがって、分散コンピューティング方法があり、大量のデータを小さな部分に分割し、各マシンは小さな部品を処理します。複数のマシンが並行して処理され、計算を迅速に完了できます。たとえば、有名なTeraSortは、1000 GBに相当する1 TBのデータをソートします。単一のマシンで処理される場合、数時間かかりますが、並列処理によって209秒で完了することができます。 では、ビッグデータプラットフォームとは何ですか?簡単に言えば、1つのマシンがタスクを完了できないことを意味するため、誰もが協力してそれを行うことを意味します。データの量が増えるにつれて、多くの中小企業は多くのデータを処理する必要があります。これらの中小企業がそれほど多くの機械を持っていない場合、何をすべきでしょうか? 3.4ビッグデータにはクラウドコンピューティングが必要であり、クラウドコンピューティングにはビッグデータが必要です これについて言えば、誰もがクラウドコンピューティングを考えています。これらの仕事をしたいときは、一緒に行うには多くのマシンが必要です。好きなときにいつでも好きなだけ多くのマシンを入手できます。たとえば、ビッグデータ会社の財務状況は、週に一度分析される場合があります。そこに100または1,000台のマシンを保持し、週に1回だけ使用する必要がある場合、それは巨大な無駄になります。それで、計算が必要なときにこれらの1,000台のマシンを取り出すことは可能ですか、そしてそれらを使用して他のことを必要としないときに行うことができますか?誰がこれをできるでしょうか?クラウドコンピューティングのみが、ビッグデータコンピューティングにリソースレベルの柔軟性を提供できます。クラウドコンピューティングは、非常に重要な一般的なアプリケーションとして、PAASプラットフォームにビッグデータを展開します。ビッグデータプラットフォームにより、複数のマシンが1つのことで協力できるようになるため、このことは普通の人々が開発できるものでも、普通の人が使用できるものでもありません。それと一緒に遊ぶには、何十人もの人または何百人もの人々を雇う必要があります。したがって、データベースのように、このことで遊ぶには、まだ専門家のグループが必要です。現在、パブリッククラウドに基本的にビッグデータソリューションがあります。小さな会社にビッグデータプラットフォームが必要な場合は、1,000台のマシンを購入する必要はありません。私がパブリッククラウドに行く限り、これらの1000のマシンはすべて出てきており、その上に展開されているビッグデータプラットフォームはデータを入れるのに十分です。 クラウドコンピューティングにはビッグデータが必要であり、ビッグデータにはクラウドコンピューティングが必要であり、2つはこのように組み合わされています。 4。人工知能はビッグデータを採用しています 4.1マシンはいつ人間の心を理解しますか ビッグデータはありますが、人々の欲求は常に不十分です。ビッグデータプラットフォームには検索エンジンがありますが、私は自分が欲しいものを見つけます。しかし、そのような状況もあります。私は自分が望むものを検索することができず、それを表現することができません。私が探しているのは私が望むものではありません。たとえば、音楽ソフトウェアでは歌が推奨されます。私はこの歌を聞いたことがない。もちろん、名前がわかりませんし、検索できません。しかし、ソフトウェアは私に推奨されており、私はそれが好きです。これは検索ではできないことです。この種のアプリケーションを使用すると、マシンが必要なときにマシンで検索する代わりに、マシンが私が望むものを知っていることがわかります。このマシンは、私の友人のように私を本当に理解しています。つまり、人工知能を意味します。 人々はこれについて長い間考えてきました。早い時期に、人々はその背後に機械がある壁があるなら、私がそれに話しかけた場合、それが私に応答すると想像しました。それが人間なのか機械なのか感じられなかった場合、それは本当に人工知能のものになるでしょう。 4.2マシンに推論を学ばせます どうすればこれができるでしょうか?人々は考えています:まず第一に、私はコンピューターに人間の推論の能力を伝える必要があります。人間を見ると何が重要ですか?人間と動物の違いは何ですか?それは推論することです。マシンに推論する能力を伝えると、マシンはあなたの質問に基づいて対応する答えを推測できます。このようになるのはどれほど素晴らしいことですか。実際、人々は、数学的な式を証明するなど、機械がいくつかを行うことを徐々に許可しています。これは非常に驚くべきプロセスであり、マシンは実際に数学的な式を証明できます。しかし、誰もが問題を発見したので、この結果はそれほど驚くことではないことを徐々に発見しました。数学的式は非常に厳格で、推論プロセスは非常に厳格でした。さらに、数式は機械で表現しやすく、プログラムは比較的簡単に表現できました。しかし、人間の言語はそれほど単純ではありません。たとえば、今夜、あなたがあなたのガールフレンドとデートするとき、あなたのガールフレンドは言った:あなたが早く来たら、私は来なかった、あなたは待っています。私が早く来たら、あなたは来なかった、あなたは待っています。このマシンは理解するのがより困難ですが、誰もがそれを理解しているので、あなたがあなたのガールフレンドとデートするとき、あなたはあえて遅れることを敢えてしません。 4.3マシンの知識を教える したがって、機械に厳密に理由を伝えるだけでは十分ではありません。また、マシンに知識を伝える必要もあります。ただし、ほとんどの人は知識を得ることができないかもしれません。専門家は、言語分野の専門家や金融分野の専門家など、それを行うことができる場合があります。言語および金融分野の知識は、イメージング数式が可能な限り厳格であることを意味しますか?たとえば、言語の専門家は、対象と予定 - 解釈の形成などのこれらの文法規則を要約することができます。被験者の前に述語が続く必要があり、述語の後にオブジェクトが続く必要があります。これらをまもなく概要と表現しますか?後で、これは不可能であり、要約するのが難しすぎることがわかりました。言語表現は絶えず変化しています。件名対象オブジェクトの例を取ります。多くの場合、述語は話し言葉で省略されています。他の人は尋ねます:あなたは誰ですか?私は答えます:私、liu chao。ただし、発音とセマンティック認識の場合、マシンに標準的な書面による言語を話す必要があることを規定することはできません。これはまだ十分に賢くありません。 Just as Luo Yonghao said in a speech, every time he faces his phone, he says in writing: Please call me XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX 人工知能のこの段階は、専門家システムと呼ばれます。エキスパートシステムを成功させるのは簡単ではありません。一方で、知識を要約することは困難であり、一方で、要約された知識を教えることは困難です。あなたはまだ混乱しており、ルールがあると感じているように見えるので、それを伝えることができないので、プログラミングを通じてコンピューターにどのように教えることができますか? 4.4脳の仕組みをシミュレートします そこで、人間は、人間の世界が機械の世界からどのように機能するかを振り返り始めました。 人間の脳は、多数のルールを保存したり、多数の統計データを記録したりしませんが、ニューロンのトリガーを通じて達成されます。各ニューロンには他のニューロンからの入力があります。入力を受信すると、他のニューロンを刺激する出力が生成されます。したがって、多数のニューロンが互いに反応し、最終的にさまざまな出力の結果を形成します。たとえば、人々が美しい女性の生徒が拡張されているのを見ると、脳が身体の割合に基づいてルールを作成したり、人生で見たすべての美しさを数えたりするのではなく、ニューロンが網膜から脳に引き起こされ、生徒に戻るということではありません。このプロセスでは、実際には、各ニューロンが最終結果でどのような役割を果たすかを要約することは困難です。 そこで人々は数学的ユニットでニューロンをシミュレートし始めました このニューロンには入出力があります。入力と出力は式で表されます。入力は、出力に影響する重要度(重量)によって異なります。 したがって、Nニューロンはニューラルネットワークのように接続されています。数nは非常に大きくて大きくなります。すべてのニューロンは多くの列に分割でき、各列は多くの列に配置されます。入力の各ニューロンの重量は異なる可能性があるため、各ニューロンの式も異なります。人々がこのネットワークから何かを入力すると、彼らは人間にとって正しい結果を出力したいと考えています。たとえば、上記の例では、2つの書かれた写真を入力すると、出力リストの2番目の数字が最大です。実際、機械の観点からは、入力画像が2で書かれていることも、一連の数字出力の意味も知らないこともわかりません。それは問題ではありません、人々が意味を知るのに十分です。ニューロンと同様に、彼らは網膜が美しさを見ていることを知らず、生徒がはっきりと見えるように拡張されていることも知りません。とにかく、美しさと生徒が拡張されているのを見ると十分です。 ニューラルネットワークの場合、入力が2であり、出力が最大の2番目の数字であることを保証することはできません。この結果を確実にするには、トレーニングと学習が必要です。結局のところ、美しい女性と拡張された生徒を見ることは、長年にわたる人間の進化の結果でもあります。学習プロセスは、結果が望ましい結果ではない場合は、多数の写真を入力し、調整を行うことです。それを調整する方法は?各ニューロンの各重量は、ターゲットに微調整されています。ニューロンと重量が多すぎるため、ネットワーク全体が生成した結果がどちらかを示すことは困難ですが、結果に向かってわずかに進歩し、最終的にターゲット結果を達成することは困難です。もちろん、これらの調整戦略は依然として非常に熟練しており、アルゴリズムの専門家からの慎重な調整が必要です。人間が美しい女性を見るように、彼女の生徒は最初ははっきりと見るように拡張されていないので、美は他の人と一緒に逃げます。次の研究の結果、鼻孔を拡張するのではなく、生徒を少し拡張することです。 4.5それは意味がありませんが、それをすることができます それはそれほど合理的ではないように聞こえますが、それはできます、それはとても意図的です。 ニューラルネットワークの普遍性定理はこれを述べています。誰かがあなたに複雑で特異な機能を与えているとしたら、F(x): この関数がどのように見えるかに関係なく、xを入力xに入力できるニューラルネットワークが常に保証されます。 関数が法律を表す場合、法律がどれほど素晴らしく、理解できないとしても、多数のニューロンと多数の重量調整を通じて表現できることも意味します。 4.6人工知能の経済的説明 これは経済学を思い出させるので、理解しやすいです。 私たちは、各ニューロンを経済活動に従事する社会の個人と見なしています。したがって、ニューラルネットワークは経済社会全体と同等です。各ニューロンは、社会の入力に重量調整を行い、対応する出力を作成します。たとえば、賃金が上昇し、野菜の価格が上昇し、株式が下落すると、どうすればいいのか、自分のお金を使う方法。ここにルールはありませんか?ある必要がありますが、それらはどのようなルールですか?はっきりと説明することは困難です。 専門家システムに基づく経済は、計画された経済に属します。経済法全体の表現は、各経済的個人の独立した決定を通して、むしろ専門家の高レベルの視点と先見性を通じて表現されることを望んでいます。専門家は、どの都市が甘い豆腐の脳を売る通りを逃しているかを決して知りません。したがって、専門家は、どれだけの鋼鉄と蒸しパンを生産すべきかは、多くの場合、人々の生活の本当のニーズからはほど遠いと言います。計画全体が数百ページのために書かれていても、人々の生活に隠された小さなルールを表現することは不可能です。 統計に基づくマクロ制御は、はるかに信頼性が高くなります。毎年、統計局は、雇用率、インフレ率、GDP、および社会全体のその他の指標をカウントします。これらの指標は、多くの場合、多くの内部法則を表しています。正確に表現することはできませんが、比較的信頼できます。ただし、統計に基づく法律の概要は比較的荒いものです。たとえば、エコノミストは、住宅価格が長期的に上昇するか下落するか、長期的に株式が上昇するか、下落するかを要約できるこれらの統計を見ることができます。経済が全体的に上昇すると、住宅価格と株式の両方が上昇するはずです。ただし、統計データに基づいて、株式と価格のわずかな変動を要約することは不可能です。 ニューラルネットワークに基づくマイクロ経済学は、経済法全体の最も正確な表現です。誰もが社会からの意見に独自の調整を行い、調整も意見として社会に供給されます。各独立した個人の継続的な取引の結果である株式市場の微妙な変動曲線を想像してください。誰もが社会全体の入力に基づいて独立した決定を下します。特定の要因が複数回訓練されると、マクロスコピックに関する統計法も形成されます。これは、マクロ経済学が見ることができるものです。たとえば、多額のお金が発行されるたびに、最終的に住宅価格が上昇し、多くのトレーニングの後、人々はそれを学びます。 4.7人工知能にはビッグデータが必要です ただし、ニューラルネットワークには非常に多くのノードが含まれており、各ノードには多くのパラメーターが含まれています。パラメーターのボリューム全体が大きすぎ、必要な計算額が大きすぎますが、問題ではありません。複数のマシンのパワーを収集して一緒に計算できるビッグデータプラットフォームがあり、限られた時間で望ましい結果を得ることができます。 スパムの識別、ポルノの暴力的なテキストや写真の識別など、人工知能ができることはたくさんあります。これも3つの段階を経ました。最初の段階は、キーワードとフィルタリングテクノロジーの白黒リストに依存しています。このオンライン言語が増加し、言葉が変わり続けるにつれて、このレキシコンを絶えず更新することを心配するには少し多すぎます。第2段階では、ベイジアンフィルタリングなどの新しいアルゴリズムに基づいて、ベイジアンアルゴリズムとは何かを心配する必要はありませんが、この名前、この確率ベースのアルゴリズムを聞いたはずです。 3番目の段階は、ビッグデータと人工知能に基づいて、より正確なユーザーのポートレート、テキスト、画像の理解を実施することです。 人工知能アルゴリズムは主に大量のデータに依存しているため、これらのデータは特定の分野(電子商取引や電子メールなど)で長期間蓄積する必要があることがよくあります。データがない場合、人工知能アルゴリズムでさえ役に立たないでしょう。したがって、人工知能プログラムは、顧客が以前のIAASやPAASのように使用できる人工知能プログラムのセットをめったにインストールしません。 1つのセットは顧客のために個別にインストールされており、顧客はトレーニングに関連するデータを持っていないため、結果は非常に貧弱です。ただし、クラウドコンピューティングメーカーは多くの場合、大量のデータを蓄積するため、クラウドコンピューティングメーカーのセットをインストールしてサービスインターフェイスを公開します。たとえば、テキストが黄色と暴力を伴うかどうかを特定する場合は、このオンラインサービスを直接使用してください。この状況でのサービスは、クラウドコンピューティング、SaaS(SoftWareasAservice)のサービスとしてソフトウェアとして呼ばれます したがって、人工知能プログラムは、SaaSプラットフォームとしてクラウドコンピューティングを参照しています。 最後に、クラウドコンピューティングの3人の兄弟が集まっています。つまり、IAAS、PAAS、SAASであるため、一般的にクラウドコンピューティングプラットフォームでは、クラウド、ビッグデータ、人工知能が見つかります。ビッグデータ会社の場合、大量のデータを蓄積し、いくつかのサービスを提供するためにいくつかの人工知能アルゴリズムも使用します。人工知能会社にとって、ビッグデータプラットフォームからサポートを受けないことは不可能です。したがって、クラウドコンピューティング、ビッグデータ、および人工知能はこのように統合され、出会い、知人、理解を完了します。 |
<<: 2021 年のテクノロジー予測: クラウドからエッジ コンピューティングまで
>>: 2021 年のクラウド コンピューティングの 8 つのトレンド
hungryvm はまったく新しいビジネスです。現在は主に 1Gbps ポートを備えたヨーロッパのデ...
Racknerd の毎年恒例のバレンタインデー イベントが早くも始まり、特に安価な VPS 2 つが...
2013年初頭から、百度はSEO最適化の不正行為を取り締まり始め、より多くのSEO実践者や成果物を販...
cmivps は現在、香港データセンターの独立サーバーを 50% 割引で提供しています。独立サーバー...
2018 年 1 月 9 日、北京 - 中国のエンタープライズ IT クラウド管理およびインテリジェ...
SEO という言葉は外国製品ですが、国内の検索市場プラットフォームに登場して以来、謎めいた印象を与え...
現在、Baiduの組み入れについて話すとき、誰もがBaiduの組み入れがますます困難になっていると感...
優れたロングテールキーワードがウェブサイトにもたらすメリットについては、誰もがよく知っています。ウェ...
絶えず変化するビジネスの世界では、不確実性が当たり前になっています。企業が熾烈な市場競争の中で確固た...
ESXi ホストでは高度な機能と管理のために vCenter が必要ですが、vCenter がなくて...
格安サーバーを専門に扱うreprisehostingは、現在から9月25日まで、米国西海岸のシアトル...
物語はここから始まる。「 adman:新年50%オフ、ロシア極東ノボシビルスク、VPS、独立サーバー...
ここ数年、WeChatが商業化の面で外界に残してきた印象は「抑制」だった。テンセントのソーシャル広告...
新しいウェブサイトを最適化することは、初心者の SEO 担当者にとって決して簡単な作業ではありません...
このクリップはどこから来たのですか?この問題は、掻くことのできない背中のかゆみのようなものです。ほと...