29 июля, 2024 (104 дня 15 часов назад)
Издание BMJ сообщает, что технология deepfake используется для создания поддельных отзывов известных британских телеврачей о медицинских товарах в социальных сетях, что усложняет усилия по выявлению и устранению этих вводящих в заблуждение видео. Вводящее в заблуждение использование ИИ включает в себя клонирование цифрового сходства с реальными людьми, в результате чего поддельные одобрения выглядят подлинными.
Некоторые из самых узнаваемых британских телеврачей все чаще становятся «глубокой подделкой» в видеороликах для продажи мошеннических продуктов в социальных сетях, сообщает The BMJ. Известные имена используются для рекламы продуктов, утверждающих, что они лечат высокое кровяное давление и диабет, а также для продажи жевательных резинок из конопли, объясняет журналист Крис Стокел-Уолкер.
Глубокая подделка — это использование ИИ для наложения цифрового подобия реально существующего человека на видео с чужим телом. Достоверные данные о том, насколько это убедительно, получить сложно, но одно из недавних исследований показало, что до 50% людей, которым показывают фальшивки, говорящие на научные темы, не могут отличить их от подлинных видео.
Джон Кормак, врач на пенсии из Эссекса, сотрудничал с журналом BMJ, чтобы попытаться оценить масштабы так называемых фальшивых врачей в социальных сетях. «Суть в том, что тратить деньги на создание видео гораздо дешевле, чем на проведение исследований, разработку новых продуктов и их вывод на рынок обычным способом», — говорит он.
По словам Генри Адждера, эксперта по технологии deepfake, появление в социальных сетях сомнительного контента, в котором используются образы популярных врачей и знаменитостей, является неизбежным следствием революции ИИ, которая сейчас наблюдается. Быстрая демократизация доступных инструментов ИИ для клонирования голоса и создания аватаров изменила ландшафт мошенничества и самозванства.
«Подобная деятельность значительно активизировалась, — говорит Хилари Джонс, который нанял специалиста по социальным сетям для поиска в Интернете видеороликов deepfake, искажающих его взгляды, и пытающийся их удалить. — Даже если вам это удается, они появляются на следующий день под другим именем».
Представитель компании Meta* (запрещена на территории РФ), владеющей Facebook* и Instagram*, на которых были размещены многие из видеороликов, найденных Кормаком, сообщил, что компания будет расследовать примеры, приведенные British Medical Journal. «Мы не разрешаем контент, который намеренно вводит в заблуждение или стремится обмануть других, и мы постоянно работаем над улучшением системы обнаружения и правоприменения. Мы призываем всех, кто видит контент, который может нарушать наши правила, сообщать о нем, чтобы мы могли провести расследование и принять меры», — заявили в Meta*.
Глубокие подделки работают, используя эмоции людей, пишет Стокел-Уолкер, а когда речь идет о медицинских препаратах, эмоциональная связь с человеком, рассказывающим вам о чудодейственном лекарстве или великолепном медицинском средстве, имеет еще большее значение.
Незнакомый человек, пытающийся продать вам достоинства того или иного лечения, может вызвать подозрения. Но если это человек, которого вы уже видели в социальных сетях, на телевидении или радио, вы, скорее всего, поверите его словам.
Выявить фальшивку бывает непросто, говорит Адждер, поскольку технология усовершенствовалась. По его словам трудно определить, насколько эффективна эта новая форма мошенничества, но растущий объем распространяемых видеороликов говорит о том, что злоумышленники добились определенного успеха.
Те, чьи подобия стали объектом обмана, похоже, мало что могут с этим поделать, но Стокел-Уолкер предлагает несколько советов, что делать, если человек обнаружил фейк. Стоит внимательно изучить контент, чтобы убедиться, что подозрения обоснованы, а затем оставьте комментарий, поставив под сомнение его правдивость. Далее он советует воспользоваться встроенными в платформу инструментами отчетности, чтобы высказать свои опасения, и, наконец, сообщить о человеке или аккаунте, который поделился постом.
Ранее растущая волна мошенничества с дипфейками ограбила компании по всему миру на миллионы долларов, и эксперты по кибербезопасности предупреждают, что ситуация может ухудшиться, поскольку преступники используют генеративный ИИ для мошенничества.
incrussia.ru
Некоторые из самых узнаваемых британских телеврачей все чаще становятся «глубокой подделкой» в видеороликах для продажи мошеннических продуктов в социальных сетях, сообщает The BMJ. Известные имена используются для рекламы продуктов, утверждающих, что они лечат высокое кровяное давление и диабет, а также для продажи жевательных резинок из конопли, объясняет журналист Крис Стокел-Уолкер.
Глубокая подделка — это использование ИИ для наложения цифрового подобия реально существующего человека на видео с чужим телом. Достоверные данные о том, насколько это убедительно, получить сложно, но одно из недавних исследований показало, что до 50% людей, которым показывают фальшивки, говорящие на научные темы, не могут отличить их от подлинных видео.
Джон Кормак, врач на пенсии из Эссекса, сотрудничал с журналом BMJ, чтобы попытаться оценить масштабы так называемых фальшивых врачей в социальных сетях. «Суть в том, что тратить деньги на создание видео гораздо дешевле, чем на проведение исследований, разработку новых продуктов и их вывод на рынок обычным способом», — говорит он.
По словам Генри Адждера, эксперта по технологии deepfake, появление в социальных сетях сомнительного контента, в котором используются образы популярных врачей и знаменитостей, является неизбежным следствием революции ИИ, которая сейчас наблюдается. Быстрая демократизация доступных инструментов ИИ для клонирования голоса и создания аватаров изменила ландшафт мошенничества и самозванства.
«Подобная деятельность значительно активизировалась, — говорит Хилари Джонс, который нанял специалиста по социальным сетям для поиска в Интернете видеороликов deepfake, искажающих его взгляды, и пытающийся их удалить. — Даже если вам это удается, они появляются на следующий день под другим именем».
Представитель компании Meta* (запрещена на территории РФ), владеющей Facebook* и Instagram*, на которых были размещены многие из видеороликов, найденных Кормаком, сообщил, что компания будет расследовать примеры, приведенные British Medical Journal. «Мы не разрешаем контент, который намеренно вводит в заблуждение или стремится обмануть других, и мы постоянно работаем над улучшением системы обнаружения и правоприменения. Мы призываем всех, кто видит контент, который может нарушать наши правила, сообщать о нем, чтобы мы могли провести расследование и принять меры», — заявили в Meta*.
Глубокие подделки работают, используя эмоции людей, пишет Стокел-Уолкер, а когда речь идет о медицинских препаратах, эмоциональная связь с человеком, рассказывающим вам о чудодейственном лекарстве или великолепном медицинском средстве, имеет еще большее значение.
Незнакомый человек, пытающийся продать вам достоинства того или иного лечения, может вызвать подозрения. Но если это человек, которого вы уже видели в социальных сетях, на телевидении или радио, вы, скорее всего, поверите его словам.
Выявить фальшивку бывает непросто, говорит Адждер, поскольку технология усовершенствовалась. По его словам трудно определить, насколько эффективна эта новая форма мошенничества, но растущий объем распространяемых видеороликов говорит о том, что злоумышленники добились определенного успеха.
Те, чьи подобия стали объектом обмана, похоже, мало что могут с этим поделать, но Стокел-Уолкер предлагает несколько советов, что делать, если человек обнаружил фейк. Стоит внимательно изучить контент, чтобы убедиться, что подозрения обоснованы, а затем оставьте комментарий, поставив под сомнение его правдивость. Далее он советует воспользоваться встроенными в платформу инструментами отчетности, чтобы высказать свои опасения, и, наконец, сообщить о человеке или аккаунте, который поделился постом.
Ранее растущая волна мошенничества с дипфейками ограбила компании по всему миру на миллионы долларов, и эксперты по кибербезопасности предупреждают, что ситуация может ухудшиться, поскольку преступники используют генеративный ИИ для мошенничества.
incrussia.ru
Рубрика: Другие новости |
Печать |
Разместил: Tele-Sat |