企業が人工知能を業務に統合するにあたり、その責任ある使用と規制遵守を保証する明確なポリシーを実施することも非常に重要です。生産性プラットフォームの使いやすさを確保するという当社の目標に沿って、職場でのコパイロットの使用を対象とするAIポリシーに必要と思われる重要なポイントと、より包括的に適用できるより一般的なAIガイダンスをまとめました。
私たちは、透明性と個別の管理に重点を置き、実装に必要な重要な企業要件を十分に理解した上でプラットフォームを構築しました。市場に出回っている大規模なアプリケーションの多くとネイティブに連携する独立系プラットフォームとして、医療や福祉サービスから金融に至るまで、最も厳格なユースケースで必要とされる特定のガバナンスとセキュリティ対策を独自に適用しています。そのために、一般的な AI ポリシーの各セクションに関連するプラットフォームの特徴を概説しました。私たちは、今日の組織が直面しているセキュリティとコンプライアンスに関する最も重大な考慮事項のいくつかをどのように解決するかについて、すべての顧客と潜在的な顧客に明確に理解してもらいたいと考えています。
AIを導入する場合、企業方針は潜在的なリスクと機会の両方に対処する可能性が高い。対象範囲を明確にすることで、企業はどのテクノロジーが自社の AI ガバナンスの枠組みに該当するかを特定しやすくなります。ポリシーは、サードパーティーや公開されている AI ツールに適用できるほど広範囲にわたり、さまざまなユースケースに合わせた具体的な切り口や説明を含める必要があります。(いつものように、ポリシーを起草する際は、所属する法務チームと相談してください。)
組織は、透明性の高いユーザー同意と制御メカニズムを優先する必要があります。AI が個人とやり取りする場合、社内外を問わず、透明性の高い方法で行う必要があります。ユーザーは、自分が AI とやり取りしているタイミングと、AI が収集、処理、使用しているデータを個人に確実に認識させる必要があります。あらゆるインタラクションにおけるAIの役割を明確に開示することで、ユーザーは常に情報を入手し、コントロールできるようになります。
Read AIは、明示的な録音通知やすべての会議参加者への簡単なオプトアウト機能など、プライバシーに対する多層的なアプローチを通じてこれを実証しています。これはユニークな機能であり(一部の州では必須ですが)、透明性の基盤が長期的な信頼と採用につながることもわかっています。
データプライバシーに関して言えば、信頼は制御と可視性から始まります。AI システムは主要な規制に準拠し、個人情報の匿名化と暗号化を保証する必要があります。Read AI では、主要な組織がどのデータを収集、処理、保存するかをきめ細かく制御することで、強力なプライバシープロトコルを AI の実装に組み込んでいることを確認しました。AI ツールにデータアクセスを許可したり、自動的にデータにアクセスすることを想定したりしてはいけません。
具体的には、AIシステムは適用されるすべてのデータ保護規制に準拠する必要があります。企業組織は、個人のプライバシーを尊重しつつ、強固な管理統制を求めるべきです。包括的なアプローチには、さまざまなコンプライアンス要件を満たすためのカスタマイズ可能な保存ポリシーときめ細かなワークスペース設定が含まれます。
また、組織は厳格なデータ処理プロトコルとセキュリティ対策を実施する必要があります。これには、データ処理手順を明確に文書化し、機密情報へのアクセスを制限することが含まれます。AI ツールは、ユーザーがアクセス権限を持っているデータのみを処理すべきであり、ユーザーや顧客のデータを保護するために、明示的な同意なしにデータを保存したり使用したりすることはできません。Readは、SOC2とタイプ2の両方、およびHIPAAコンプライアンスに必要なすべての保護措置を講じています。Read では、完全にカスタマイズ可能なデータ保持ルール、音声、ビデオ、トランスクリプトへのアクセス制御、ワークスペースレベルの統合管理、配信制御などを提供しています。Read はまた、すべてのプライバシー機能を透明かつオープンに文書化しており、データの共有と保持をユーザーがきめ細かく制御できるようになっています。また、当社のSearch Copilotツールは厳格なボトムアップ型の共有管理とガバナンスにも従っています。 詳細についてはこちらをご覧ください。 Read AI では、データ処理には当社独自のファーストパーティモデルのみが使用されます。カスタマーエクスペリエンスデータはデフォルトでは共有されません。顧客がオプトインしない限り、Readは顧客データに対するトレーニングを行いません(現在、オプトインしているのは顧客の約10〜15%のみです)。Read はコンテンツを保存することはなく、明確なデータ削除プロトコルと検証を実施しています。安全なクラウドインフラストラクチャが標準であり、データの大部分は米国に保存されています (HIPAA コンプライアンスを選択した場合、すべてのデータは米国に保存されます)。
ポリシーを起草する際には、個人データは可能な限り匿名化し、暗号化標準を使用して安全に保管する必要があることを明記する必要があります。また、データプライバシーポリシーの遵守を確認するために定期的な監査を実施する必要があります。
コラボレーションを可能にしながら個人のプライバシーを保護するには、慎重なバランスが必要です。ユーザー制御の共有メカニズムを導入することで、生産性を維持しながらデータを確実に保護できます。どのようなポリシーにおいても、企業はポリシーの施行と更新を担当するAIガバナンス責任者を任命し、必要なログの透明性と監査可能性を確認する必要があります。
Read AI によりコンテンツ共有を個別に制御できる (これはトップダウンのプロセスであってはならないと考えています)。また、データへのアクセス権限をきめ細かく設定し、共有コンテンツには明確な監査記録も用意しています。当社のカスタマーサポートチームは、企業チームに必要な詳細情報を提供できます。
Read AI はオープンウェブから AI 生成コンテンツを作成しませんが、この種のツールに関する考慮事項は一般的な AI ポリシーに含まれる可能性があります。企業は AI 関連のインシデントに対処し、潜在的な被害を軽減するための明確なプロセスを用意する必要があります。また、AI を継続的に監視して意図しない行動を検出し、必要に応じて人間が介入できるようにする必要があります。
組織はまた、どのタスクを完全に自動化できるか、どのタスクが人間の介入を必要とするかを明確に説明する必要があります。採用や財務上の承認など、リスクの高い意思決定には、常にヒューマン・イン・ザ・ループ・システムが必要となるでしょう。これらの決定は、AI の導入を監督し、企業価値との整合性を確保する指定の AI 倫理委員会が下すことができます。
AIの透明性の鍵となるのは、マーケティング資料、カスタマーサービスの回答、レポートなど、すべての外部コミュニケーションが正確で、人間が検証していることを確認することです。Read AI の Search Copilot などのツールには、生成されたすべての出力の引用が含まれているため、ユーザーは情報の出所を正確に把握できます。ロギングとモニタリングのシステムにより、AI 運用の透明性と説明責任が維持され、イノベーションを促進しながらリスクを最小限に抑えることができます。
ポリシーは、技術の進歩や規制の変更に対応して定期的に更新する必要があります。また、責任あるAIの使用を促進するために、倫理的なAI原則を可能な限り企業文化に組み込む必要があります。 Read AI では、透明性と制御をユーザーに提供することが、信頼、コラボレーション、生産性の強化につながることを学びました。責任ある AI プラクティスを導入することで、企業はインテグリティを犠牲にすることなくイノベーションが盛んになる環境を作り出すことができます。
製品デモやワークスペースコントロールに関する質問については、 営業チームにお問い合わせください。
私たちは、組織が今日直面している最も重要なセキュリティとコンプライアンスの課題にどのように対処しているかをすべてのお客様に明確に理解してもらいたいと考えています。