カジノサイト
エル・カリオビー: 人間は AI を活用して世界を改善できる
ハーバード ビジネス スクールのエグゼクティブフェローであり、Blue Tulip Ventures の共同創設者であるラナ エル カリオビー氏は、偏見、偽情報、持続可能性への脅威や資源の枯渇、さらには危険な感情的愛着など、人工知能 (AI) が私たちの社会にもたらす可能性のある脅威を見てきました。
しかし、このテクノロジーが存在すべきかどうかという問題を考えると、ためらうことなく彼女の答えは「絶対にそうだ」です。
人間中心の AI
2024 年 9 月 24 日火曜日の GSX 基調講演で、エル カリオウビ氏は AI テクノロジーを積極的に活用する方法を共有しました。
たとえば、居眠り運転や子供が車内に閉じ込められたままになっている場合など、危険な状況を検出して車両の運転手に警告したり、自閉症の子供が他人の感情状態を認識できるように支援したりする。
イノベーションにルーツを持つベンチャーキャピタリストとしての立場から、エル・カリオビー氏は、このテクノロジーが大きなチャンスをもたらすと指摘しました。
「私たちの投資テーマは基本的に、優れた AI は優れたビジネスです」と彼女は言いました。 「はい、AI は莫大な経済的機会を提供しますが、同時に人類の最大の課題に対する驚くべき解決策も提供します。」
投資機会として彼女が注目している解決策は、責任ある倫理的な AI を構築して扱うことです。なぜなら、どの企業も AI をどのように管理するか、責任ある安全な AI ソリューションを実装する方法を決定する必要があるからです。
El Kaliouby は、AI を改善ツールとして使用できる私たちの生活の他の側面も強調しました。健康とウェルネス (つまり、センサーの進歩、健康データ分析)、生産性と学習 (つまり、AI エージェントを活用してワークフローを合理化したり、ユーザーに代わって操作したりする)、持続可能性 (つまり、より持続可能な食料システムとサプライ チェーンの構築、気候変動の緩和) は、エル カリオビ氏が指摘したより大きな前向きなテーマです。
「あらゆる業界が AI によって変革、革命、再考されています」と彼女は言いました。エル・カリオビーはうなずいたAI は人間の労働力に取って代わるものではなく、AI を活用できる人間がこのテクノロジーを避ける人々に取って代わることに同意します。
セキュリティ リスク
El Kaliouby 氏は、AI には重大な課題があり、何らかのリダイレクトがなければ脅威になる可能性があると指摘しました。
彼女は、限られた現在のデータセットがどのように偏ったアルゴリズムを作成し、それを使用して画像を作成できるかについて触れました。
別の種類のバイアスは、「AI 幻覚」から生じます。AI が提示する科学論文や学術誌などの資料は、一見正当なものに見えますが、実際には AI の創作物です。これらの幻覚は偽情報になる可能性があります。
AI には、ジェンダー、思想、視点など、他にも偏見の問題があります。 「今日のAIの多くは非常に米国中心であり、中国もAI競争の大きなプレーヤーだ」とエル・カリオビー氏は語った。彼女は、地元の労働力に頼って作成できる、他の国や文化を代表する AI 製品がもっと登場することを期待していると付け加えました。
最後に、生成 AI は持続可能な実践を促進するデータ駆動型のソリューションを提供できますが、それを支えるテクノロジーは別の話です。
「たとえば、Nvidia のハイエンド チップを基礎モデルのトレーニングに使用すると、44140_44292
ただし、AI 業界はさらに増加すると予測されていますそしてエル・カリオビーさんは、これが人類を変える最大の手段になると信じていると語った。現在の課題、特に AI の構築と展開に関する課題は、「破壊の機が熟した」ビジネス チャンスをもたらしていると彼女は付け加えました。
セキュリティと AI を再考する
AI は、セキュリティ業界にとって、事後対応型から事前対応型に移行する機会をもたらしているとエル カリオビー氏は発言の中で述べました。
AI を使用すると、セキュリティ インシデントの予測をサポートし、予測分析とパターン認識を活用してリアルタイムの脅威分析を提供し、組織に対する脅威をより早く特定することができます。
「すべてはデータから始まります」とエル・カリオビー氏は述べ、これらの価値ある事業とアルゴリズムは大規模な事業であると付け加えた。
より広い範囲で、エル・カリオウビ氏は、AIとの社会契約を再考し、信頼に基づいた新しい契約を築く時期が来たと述べた。これには、さまざまな形の AI が持つべき自律性を考慮する必要があります。
たとえば、彼女は GSX 出席者に、AI を知的なインターンのように扱うことを検討するよう求めました。これは、監視を行う人間のスーパーバイザーの下で動作しながらも委任できるインターンのようなものです。
信頼に基づいて構築された社会契約には、AI ツールの構築に使用されるデータも含まれるとエル・カリオビー氏は付け加えた。セキュリティ担当者は、収集、使用、サンプリング、多様性、保存に関するデータと、AI がこのデータにどのようにアクセスして分析できるかに細心の注意を払う必要があります。
「企業はこれを全面的に制度化するための方法論とアプローチを持つ必要があると本当に思います」とエル・カリオビー氏は述べ、アルゴリズムの偏見を根絶する必要性を強調した。
サラ・モスケダはボットや AI の創造物ではありません。代わりに、彼女は の副編集長です。セキュリティ管理。LinkedIn 経由で彼女とつながるか、次のアドレスにメールを送信できます[email protected]. 星が揃ったら、GSX 2024 で実際に彼女に会えるかもしれません。
AI のセキュリティ アプリケーションの詳細については、こちらの記事をご覧くださいセキュリティ技術、人工知能の問題。








