Россияне не доверяют искусственному интеллекту

85% россиян не готовы доверить принятие решений искусственному интеллекту, говорится в докладе Центра исследований гражданского общества и некоммерческого сектора НИУ ВШЭ.

Цифровая среда не только создает возможности, но и несет определенные риски. Так, алгоритмическая обработка данных цифровыми платформами и государством может привести к нарушению права на неприкосновенность частной жизни, отмечается в докладе Центра исследований гражданского общества и некоммерческого сектора НИУ ВШЭ.

Среди основных угроз ученые также называют цифровую дискриминацию граждан государством и частными корпорациями на основе злоупотребления персональными данными, кибератаки и компьютерное мошенничество, кибербуллинг, троллинг, информационные войны в киберпространстве, рост числа «фейковых новостей» и спланированных кампаний по дезинформации в интернете.

В итоге большинство россиян не готовы доверить принятие решений искусственному интеллекту (85%), выяснили эксперты ВШЭ. 64% из них при пользовании интернетом опасаются утечки персональных данных.

Это подтверждают исследования Аналитического центра НАФИ, согласно которым за три года доля россиян, которые стали больше бояться утечек персональных данных в интернете, увеличилась на 9% – до 63%.

«Чтобы граждане перестали опасаться доверять принятие решений искусственному интеллекту, у них должно возникнуть доверие к самой технической системе, — говорит директор Центра исследований гражданского общества и некоммерческого сектора НИУ ВШЭ Ирина Мерсиянова. — Однако доверие на пустом месте возникнуть не сможет, ведь это, по сути, оправданные ожидания от взаимодействия. Даже если постоянно уверять людей в том, что все хорошо и надежно, без своего опыта взаимодействия доверие не возникнет».

Несмотря на пока несформировавшееся доверие граждан к искусственному интеллекту, вектор развития правового регулирования должен быть направлен на укрепление информационного суверенитета государств и защиту прав граждан в цифровой среде, полагают эксперты ВШЭ.

 

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь