Роскачество предупредило граждан РФ, что телефонные мошенники могут использовать искусственный интеллект, чтобы сымитировать голос родственника потенциальной жертвы. Об этом пишет «Российская газета».
ИИ способен создать имитацию голоса на основе видео или аудиозаписи. Получить к ним доступ можно из соцсетей или при записи телефонного звонка. Схема обмана, по сути остается прежней, только теперь «пострадавший» родственник отправляет не СМС, а голосовое сообщение.
Специалисты Роскачества советуют не отвечать на звонки с неизвестных номеров, а также обращать внимание на голос родственников. Если в нем нет эмоций или много разных шумов, то повышается вероятность фейка. Такому «родственнику» нужно задать вопрос, который может знать только родной человек. Наконец, самое простое — перезвонить знакомому или родственнику и узнать, как у них идут дела на самом деле.
Ранее Агентство экономических новостей сообщало, что крупные российские банки усилили блокировку карт подставных лиц мошенников.
В России успешно завершились испытания технологии самоочищающегося дорожного покрытия. Об этом РИА Новости узнало в…
Все больше экономик Азиатско-Тихоокеанского экономического сотрудничества (АТЭС) обвиняют западные санкции в нарушении цепочек поставок товаров…
За последние девять лет запасы русского осетра в водах Азовского моря увеличились практически с нуля…
Работа электросетей в России не была нарушена из-за мощнейшей магнитной бури. Об этом информирует ТАСС…
Мошенники обманули 28-летнего россиянина, который решил заработать на перепродаже картинок NFT. Мужчина набрал кредитов, но…
Приставы разыскивают певца Наваи Бакирова, звезду дуэта HammAli & Navai, из-за долгов его компании более…