Прочитайте руководство ИИ по составлению политики ИИ

Как сделать
Конфиденциальность

По мере интеграции искусственного интеллекта в свою деятельность компании должны внедрять четкие политики, обеспечивающие его ответственное использование и соблюдение нормативных требований. В соответствии с нашей целью обеспечить легкость использования нашей производственной платформы мы определили ключевые моменты, которые, по нашему мнению, необходимы для политики ИИ, охватывающей использование нашего рабочего копилота, а также более общее руководство ИИ, которое может применяться более широко.

Мы создали нашу платформу с акцентом на прозрачность и индивидуальный контроль, а также с полным учетом важных требований предприятия для внедрения. Будучи независимой платформой, которая работает в родной среде с многими крупнейшими приложениями на рынке, мы уникально применяем конкретные меры управления и безопасности, необходимые для ряда наиболее жестких случаев использования, от здравоохранения и социальных служб до финансов. С этой целью мы определили характеристики нашей платформы, которые важны для каждого раздела общей политики ИИ. Мы хотим, чтобы каждый клиент и потенциальный клиент четко понимали, как мы решаем одни из наиболее значимых вопросов безопасности и соответствия требованиям, с которыми сегодня сталкиваются организации. 


Установление области политики

При внедрении ИИ корпоративная политика, вероятно, охватывает как потенциальные риски, так и возможности. Четко очерченная область помогает бизнесу определять, какие технологии подпадают под рамки их управления ИИ. Политика должна быть достаточно широкой, чтобы применяться к любым сторонним или общедоступным инструментам ИИ с конкретными исключениями и описаниями для различных случаев использования. (Как всегда, проконсультируйтесь с вашей собственной юридической службой при составлении политики.)


Прозрачное согласие пользователей, управляющие механизмы и осведомленность

Организации должны уделять первоочередное внимание прозрачному согласию пользователей и механизмам контроля. Когда ИИ взаимодействует с людьми, будь то внутри или снаружи, это должно происходить прозрачно. Пользователи должны убеждаться, что люди осведомлены о том, когда они взаимодействуют с ИИ, и какие данные ИИ собирает, обрабатывает или использует. Явные раскрытия роли ИИ в каждом взаимодействии позволяют пользователям быть информированными и контролировать ситуацию.

Read AI демонстрирует это через многослойный подход к конфиденциальности, включая явные уведомления о записи и простые возможности отказа для всех участников встречи. Это уникальная функция (хотя в некоторых штатах это требование), и мы знаем, что основание прозрачности укрепляет долгосрочное доверие и принятие. 


Конфиденциальность данных, обработка и безопасность

Когда дело касается конфиденциальности данных, доверие начинается с контроля и видимости. Системы ИИ должны соблюдать основные нормативные требования, обеспечивая анонимизацию и шифрование персональной информации. В Read AI мы наблюдаем, что ведущие организации внедряют сильные протоколы конфиденциальности в своей реализации ИИ, предлагая детализированные управляющие механизмы над тем, какие данные собираются, обрабатываются и хранятся. Инструменты ИИ никогда не должны получать или принимать автоматический доступ к данным.

В частности, системы ИИ должны отвечать всем применимым нормам защиты данных. Крупные организации должны требовать надежного административного контроля, уважая при этом личную конфиденциальность. Комплексный подход включает настраиваемые правила хранения и детализированные настройки рабочего пространства для удовлетворения различных требований к соблюдению норм. 

Организации также должны внедрять строгие протоколы обработки данных и меры безопасности. Это включает ясную документацию процедур обработки данных и ограниченный доступ к конфиденциальной информации. Инструменты ИИ должны обрабатывать только те данные, к которым пользователи имеют разрешение на доступ, и данные не могут храниться или использоваться без явного согласия для защиты данных пользователей и клиентов. Read соблюдает все необходимые гарантии как для SOC2 и Type 2, так и для соблюдения HIPAA. Read предлагает полностью настраиваемые правила хранения данных; контроль доступа к аудио, видео и транскрипциям; управление интеграцией на уровне рабочего пространства; и механизмы управления распространением. Read также открыто и прозрачно документирует все функции конфиденциальности и позволяет детализировать контроль пользователя над обменом данными и их хранением. Наш инструмент Search Copilot также следует строгим нижестоящим механизмам обмена и управления. Чтобы узнать больше об этом перейдите сюда. В Read AI для обработки данных используется только наша собственная, первостепенная модель. Данные о пользовательском опыте по умолчанию не передаются. Read не обучается на данных клиентов, если только клиент не принимает участие (только около 10-15% клиентов в настоящее время участвуют). Read никогда не хранит контент и мы реализуем четкие протоколы удаления данных и заверения. Безопасная облачная инфраструктура является стандартом, и большая часть данных хранится в США. (для тех, кто принимает участие в соблюдении HIPAA, все данные хранятся здесь).

При подготовке политики следует указать, что личные данные должны анонимизироваться, когда это возможно, и храниться безопасно с шифровальными стандартами, и должны проводиться регулярные аудиты для обеспечения соблюдения политик конфиденциальности данных. 


Защита индивидуальной конфиденциальности и ответственность

Защита индивидуальной конфиденциальности при обеспечении сотрудничества требует осторожного баланса. Внедрение механизмов пользовательского контроля обмена данными обеспечивает защиту данных при поддержании производительности. Как часть любой политики, компания должна назначить офицера по управлению ИИ, ответственного за соблюдение и обновление политики, а также за проверку требуемых журналов для обеспечения прозрачности и возможности аудита.

Read AI обеспечивает индивидуальный контроль над обменом контентом
(мы считаем, что это не должно быть процессом сверху вниз). Мы также предлагаем детализированные разрешения для доступа к данным и ясные аудиторские следы для обменяемого контента. Наша команда поддержки клиентов может предоставить необходимые данные для команд предприятий. 


Дополнительные соображения

Хотя Read AI не создает контент с искусственным интеллектом с использованием открытой сети, соображения для этого инструмента скорее всего будут включены в общую политику ИИ. Компании должны иметь четкий процесс решения инцидентов, связанных с ИИ, и смягчения потенциального ущерба, а ИИ должен непрерывно контролироваться, чтобы обнаруживать непреднамеренные поведения и позволять человеческое вмешательство в случае необходимости.

Организации также должны четко обозначить, какие задачи можно полностью автоматизировать, а какие требуют человеческого вмешательства. Для решений с высоким уровнем ответственности, например, найма или финансовых утверждений, вероятно, должна всегда присутствовать система человеческого контурирования. Эти решения могут приниматься назначенным комитетом по этике ИИ, который следит за внедрением ИИ и обеспечивает соответствие корпоративным ценностям.

Ключевая часть прозрачности ИИ заключается в том, чтобы все внешние коммуникации - включая маркетинговые материалы, ответы службы поддержки клиентов и отчеты - были точными и проверенными людьми. Инструменты, такие как копилот поиска Read AI, включают ссылки на все созданные выходные данные, поэтому пользователи знают, откуда именно берется информация. Системы ведения журнала и мониторинга обеспечивают, что операции ИИ остаются прозрачными и подотчетными, уменьшая риски при содействии инновациям.

Политики должны регулярно обновляться в ответ на технологические усовершенствования и изменения нормативных требований. Кроме того, по возможности, этические принципы ИИ должны быть внедрены в корпоративную культуру для продвижения ответственного использования ИИ. В Read AI мы выяснили, что предоставление пользователям прозрачности и контроля приводит к укреплению доверия, сотрудничества и производительности. Внедряя ответственные практики ИИ, компании могут создать среду, где инновации процветают, не жертвуя целостностью.

Для демонстрации продукта или чтобы задать вопросы о контроле рабочего пространства, пожалуйста, свяжитесь с нашей командой продаж.

Мы хотим, чтобы каждый клиент четко понимал, как мы решаем наиболее важные задачи безопасности и соответствия требованиям, с которыми сталкиваются организации сегодня.

Copilot Везде
Read предоставляет возможности для индивидуумов и команд бесшовно интегрировать AI-помощь на платформах, таких как Gmail, Zoom, Slack, и тысячах других приложениях, которые вы используете каждый день.