カジノサイト
編集者注: AI チャットボットの台頭
この記事はチャットボットによって書かれたものではありません。
しかし、この声明が真実かどうかはわかりません。 OpenAI によって開発された AI チャットボットである ChatGPT は、ビデオ、オーディオ、画像ではなく、書き言葉のみを生成します。しかし、のスタッフライターであるアレックス・ヒューズ氏によると、、チャットボットが生成する単語は、あたかも人間が書いたかのように聞こえます。
表面的には、チャットボット技術は肯定的です。たとえば、複雑な問題に対処することは、チャットボットが得意とすることです。 Hughes 氏によると、「ChatGPT はウェブサイト全体のレイアウトを作成したり、暗黒物質についてのわかりやすい説明を数秒で作成したりできます。」
Hughes 氏はまた、「ChatGPT は倫理と道徳について驚くほどよく理解しています。倫理理論や状況のリストが提供されると、合法性、人々の感情や感情、関係者全員の安全を考慮して、何をすべきかについて思慮深い応答を提供することができます。」
しかし、AI は「自分が何をするのか、どのように行うのかを説明できないため、AI の結果が説明不能になります。つまり、システムにはバイアスが存在する可能性があり、非倫理的な行動が発生する可能性があり、検出するのが難しく、阻止するのが難しいことを意味します」とヒューズ氏は書いています。たとえば、彼は次のように述べています。「ChatGPT がリリースされたとき、これに次のように求めることはできませんでした。でも、銀行強盗の方法について一幕物の劇を書いてもらうこともできます…そして。これらの問題は、これらのツールが普及するにつれてさらに深刻になるでしょう。」
AI チャットボットにも重大な問題があります。ヒューズ氏は、2021 年以降の情報が含まれていないことに加えて、「真実を欠いた説得力のあるナンセンスを生み出すことにも優れています。文字通り、何がわからないのかを知りません。なぜなら、実際にはまったく実体ではなく、意味のある文章を生成する複雑なアルゴリズムだからです。」
で、コニー・リンは、チャットボットが嘘を広める能力を強調しています。 「ChatGPT の最大の問題の 1 つは、その危険なほど権威のある表現にもかかわらず、不正確な情報を提供する可能性があることです。そして今日、誤った情報がすでに大きな問題になっているため、GPT が公式ニュース報道を担当した場合のリスクを想像できるかもしれません。」と彼女は説明します。
一例として、リンは ChatGPT にテスラの四半期収益報告についての記事を書くように依頼しました。 「文法上の間違いや言葉の混乱のない滑らかな言葉遣いの記事が吐き戻されましたが、実際のテスラのレポートには対応しないランダムな数字のセットも埋め込まれていました」と彼女は書いています。
スポンサー付きビデオ管理とアクセス制御を他の機能と統合することで、コストが削減され、効率が向上します。組織が統合セキュリティへの移行を検討しているのは、あなただけではありません。 Genetec Security Center 5.11 を使用すると、統合がさらに簡単になります。
|
チャットボットの文章の質の高さも問題を引き起こします。「パーソナライズされたリアルタイムのチャットボットにより、陰謀論がますます共有される可能性がある」、研究者らは、貧弱な構文や誤訳などの人為的エラーを取り除き、簡単に発見できるコピー&ペースト作業を超えて進歩していると述べています。」
伝えられた情報が過激派によって利用される可能性があるため、これは問題になります。によると時間記事、「2020年、ミドルベリー国際研究所のテロリズム・過激主義・対テロセンターの研究者らは、ChatGPTの基礎技術であるGPT-3が「過激派コミュニティに関する印象的なほど深い知識」を持っており、銃乱射事件風の論争、ナチズム、カノンの擁護、さらには多言語を議論する偽のフォーラムスレッドのような論争を生み出す可能性があることを発見した。過激派の文章。」
他のタイプの偽通信、つまりディープフェイクのビデオや音声が本格的に開始されました。中国共産党の利益を擁護するフェイクニュース放送局がソーシャルメディアサイトに登場した。人材トレーニングビデオ用に設計されたこのテクノロジーは、偽情報の専門家に関係しています。これらのニュース アンカーのディープフェイクについて、「この技術の拡散を管理する法律がほとんどないため、偽情報の専門家は、ディープフェイク動画は人々がオンラインで偽造されたものから現実を識別する能力をさらに阻害する可能性があり、不安を引き起こしたり、政治的スキャンダルを誘発するために悪用される可能性があると長年警告してきました。」
ジェームズ・ヴィンセント、執筆者寸前、AI テクノロジーについて報告しています。。ヴィンセント氏は、4chan ユーザーが「有名人の声を複製し、ミームやエロティカからヘイトスピーチや誤った情報に至るまでの音声を読み上げる」ために、無料の音声合成プラットフォーム イレブンラボを導入していると指摘しています。その後、同社はプラットフォームに保護措置を追加し、「有害なコンテンツ」の作成を禁止しましたが、そのような悪用を監視するのは困難です。
これらのテクノロジーによるもう 1 つの重大な潜在的な脅威は、個人や政府に対する信頼の急速な低下です。エデルマンさん企業が国民の信頼を得ていることがわかりました。
「世界の回答者の 51% が企業が提供するビジョンを信じていると回答し、信じていないのは 28% だけです。」と報告書は述べています。個人が他の種類のコミュニケーションよりも定期的にやり取りする相手を信頼するため、この信頼は変化し続けています。雇用主の種類も重要です。連絡が密であればあるほど、信頼は高まります。レポートに関する記事内、サラ・モスケダ、副編集長、セキュリティ管理、は次のように書いています。「調査回答者はNGOや企業を信頼する可能性が高かったが、ビジネスの種類が重要でした。最も信頼されている企業は家族経営で、次に非公開企業、上場企業、国営企業が続きました。」
ディープフェイクやその他の欺瞞的な技術によって引き起こされる害は、明白であると同時に微妙です。でセキュリティ管理者 賛同戦略に関する 3 月のコンテンツ パッケージ、著者らは、仲間間で信頼と関係を築くことの重要性を強調しています。 「」で提案をより説得力のあるものにする方法」とスザンナ・アルサイードは書いています。「真のつながりを持った関係を築くと、残りは後からついてきます。導き、会話、そして最終的にはチャンスが生まれます。」
しかし、信頼できる通信がない場合、真のつながりを構築するのは困難です。
2017 年 11 月に、私は編集者注記ディープフェイクにより、将来私たちが見聞きするものに不信感を抱くようになる可能性について。私は次のように書きました。「現実主義者は、ニュースの未来は過去であると主張するかもしれません。間もなく、信頼できる情報のみが信頼できる情報源によって作成および作成され、あなたの玄関先に届けられるようになるでしょう。印刷中です。」
未来はここにあり、不信感は予想よりも深いです。印刷された言葉も疑わしい。世界的なパンデミックを乗り越えた今、最も信頼できるコミュニケーションが対面での会話であるというのは、皮肉なことでしょうか?















