Логотип Зефирнет

По словам генерального директора, люди, которые регулярно разговаривают с чат-ботами с искусственным интеллектом, часто начинают верить в то, что они разумны.

Дата:

Вкратце Многие люди начинают верить, что взаимодействуют с чем-то разумным, когда разговаривают с чат-ботами с искусственным интеллектом, по словам генерального директора Replika, приложения, которое позволяет пользователям создавать своих собственных виртуальных компаньонов.

Люди могут настраивать внешний вид своих чат-ботов и платить за дополнительные функции, такие как определенные черты характера в Replika. Миллионы загрузили приложение, и многие регулярно общаются со своими выдуманными ботами. Некоторые даже начинают думать, что их цифровые приятели — настоящие разумные сущности.

«Мы не говорим о сумасшедших или людях, страдающих галлюцинациями или бредом», — заявила основатель и генеральный директор компании Евгения Куйда. заявил Рейтер. «Они разговаривают с ИИ, и это их опыт».

Инженер Google сделал заголовки в прошлом месяце, когда он сказал, что, по его мнению, одна из языковых моделей компании обладает сознанием. Блейка Лемуана часто высмеивали, но, похоже, он не одинок в антропоморфизации ИИ.

Однако эти системы не являются разумными, а вместо этого обманывают людей, заставляя их думать, что у них есть разум. Они имитируют язык и извергают его несколько случайным образом, не имея никакого понимания языка или мира, который они описывают.

Тем не менее, Куйда сказал, что технология может повлиять на людей.

«Нам нужно понять, что [это] существует, точно так же, как люди верят в призраков», — сказал Куйда. «Люди строят отношения и верят во что-то».

ЕС должен запретить детекторы лжи с искусственным интеллектом, говорят активисты

Закон Европейского союза об искусственном интеллекте, предложение по регулированию технологии, все еще обсуждается, и некоторые эксперты призывают запретить автоматические детекторы лжи.

Частные компании предоставляют технологии государственным чиновникам для использования на границах. Алгоритмы ИИ обнаруживают и анализируют такие вещи, как движение глаз человека, выражение лица и тон, чтобы попытаться определить, говорит ли кто-то неправду. Но активисты и эксперты в области права считают, что его следует запретить в ЕС в соответствии с предстоящим законом об искусственном интеллекте.

«Вы должны доказать, что вы беженец, и вас считают лжецом, если не доказано обратное», — Петра Молнар, заместитель директора некоммерческой юридической лаборатории по делам беженцев, заявил Проводной. «Эта логика лежит в основе всего. Это лежит в основе детекторов лжи с искусственным интеллектом, а также в основе большего наблюдения и противодействия на границах».

Попытка определить, может ли кто-то лгать, используя визуальные и физические признаки, — это не совсем наука. Стандартные тесты на детекторе лжи ненадежны, и неясно, что использование более автоматизированных методов обязательно означает их точность. Использование таких рискованных технологий для уязвимых людей, таких как беженцы, не идеально.

Может ли ИИ действительно сказать, на сколько лет вы выглядите?

Сюрприз, сюрприз — алгоритмы искусственного интеллекта, разработанные для предсказания чьего-то возраста по изображениям, не всегда точны.

В попытке расправиться с молодыми пользователями, которые лгут о своем возрасте в социальных сетях, Meta объявила, что работает с Yoti, стартапом в области компьютерного зрения, для проверки возраста людей. Те, кто вручную меняет дату своего рождения, чтобы зарегистрироваться как старше 18 лет, могут загрузить видео-селфи, а затем технология Yoti используется для прогнозирования того, выглядят ли они достаточно зрелыми.

Но его алгоритмы не всегда точны. Репортеры CNN, которые проверенный онлайн-демонстрация другой версии программного обеспечения на их собственных лицах, обнаружили, что результаты были случайными. Алгоритмы Yoti правильно предсказали целевой возрастной диапазон для некоторых, но в одном случае ошиблись на несколько лет — предсказав, что кто-то выглядел на 17–21 год, когда на самом деле ему было около 30 лет.

Сообщается, что система, анализирующая видео пользователей Meta, испытывает большие трудности с оценкой возраста подростков от 13 до 17 лет с более темным оттенком кожи. Людям сложно угадать чей-то возраст, просто взглянув на него, и машины, вероятно, справляются не намного лучше. ®

Spot_img

Последняя разведка

Spot_img