Манипуляции обществом с помощью ИИ

XUC

второе пришествие
Регистрация
3 Сен 2006
Сообщения
869
Реакции
569
Угрозы, представляемые искусственным интеллектом обществу и людям . Мой взгляд на сегодня.

1. Манипулирование данными
1.1 в реальном режиме времени, например манипуляция при помощи политической и не только рекламы, манипуляция с выдачей конкретных уже готовых текстов в соц сетях, изданиях и прочих интернет изданиях
1.2 отложенная манипуляция , например регулярное переписывание архивных данных, например переписывание истории, фактов , логических цепочек, научных данных и т.д.
1.3 их комбинации.
2. Манипулирование научными и техническими открытиями
1.2 формирование базы научных открытий в конкретной технической области, с последующими патентоведными изысканиями.
т.е с помощью ИИ производится автоматизиваранный патентный поиск изобрений и открытий в научных и не только областях,.
самые востребованные открытия научных сфер сделанные при помощи ИИ , патентуются и сертифицируются,если предполангается использование.
это означает , что огромный пласт научной и технической прослойки общества останется без работы. Или если перефразировать мысль,
рядовой технический или научный сотрудник уже не будет имть шансов совершить какое то открытие в мире науки или техники, ибо все сфры
будут пересмотрены с помощью ИИ и перепатенованы. А кто же будет бенефециар этих открытий?
Ну конечно - же владельцы мега систем с ИИ, новая сформировавщаяся прослойка для управления миром.

3. Манипулирование личными данными, начиная от данных человека из соц сетей и заканчивая его персональныйми биометрическими данными и ДНК.
4. Манипуляция финасовыми рынками.
5. Создание оружия нового типа вплоть до индивидуального направленного поражения - для конкретного человека с конкретной ДНК.
6. Встраивание ИИ чипов во всевозможные электронные приборы, от компьютеров и маршруторизаторов до лампочек и унитазов.
7. Управление и манипуляция сетевыми системами , начиная от локальных сетей и заканчивая интернетом и его наследниками.
8. Управление и манипуляция системами умного дома,всеми видами систем виртуальной реальности (полная, смешанная, дополненная)
9. Тотальное обворовываание и присвоение, модернизация и патентование идей общества, людей, социальных групп. Т.е наука, инжерения всех видов постепенно начнёт в принципе исчезать.
в обществе настанет разделение реальной науки правдивых знаний и псевдо"науки" насаждаемой низжим слоям общества для еще более тотального оболванивания и одурманивания социума.
Эра Homo Sapiens "человека разумного" уйдёт в историю.

Xuc
----- редакция статьи от 03.12.23
 
Последнее редактирование:
Байден подпишет указ о контроле над нейросетями и заманивании ИИ-специалистов в США

Администрация Байдена подготовила указ об ИИ, который станет самой значительной попыткой США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всём мире. Этот документ усилит роль правительства США как ведущего заказчика технологий. Передовые модели ИИ будут проходить оценку, прежде чем они смогут быть использованы федеральными служащими. Указ также снимет иммиграционные барьеры для высококвалифицированных специалистов.

ai-human-hands-pixabay.jpg

Источник изображения: Pixabay

Белый дом впервые объявил о планах принятия указа в июле, а Байден рассказал о нём в сентябре на встрече с Советом президентских экспертов по науке и технологиям в Сан-Франциско. «Этой осенью я собираюсь принять исполнительные меры, и моя администрация будет продолжать работать с двухпартийным законодательством, чтобы Америка проложила путь к ответственным инновациям в области искусственного интеллекта», — заявил Байден.

Указ будет обнародован в понедельник на мероприятии «Безопасный, надёжный и заслуживающий доверия ИИ», организованном администрацией президента США. Он будет основан на ряде добровольных обязательств в отношении ИИ, подписанных 15 компаниями, включая OpenAI, Google, Adobe и NVIDIA при посредничестве Белого дома в сентябре. Одним из важнейших пунктов является обязательство предоставлять данные о безопасности ИИ правительству и учёным.

Ожидается, что экспертная оценка больших языковых моделей будет проводиться Национальным институтом стандартов и технологий (NIST). В этом году NIST выпустил систему управления рисками, связанными с ИИ, и регулярно сотрудничает с другими государственными учреждениями в области ИИ. Федеральные правительственные агентства, в том числе Министерство обороны, Министерство энергетики и разведывательные службы, оценят возможность использования ИИ в своей работе, уделяя особое внимание укреплению национальной киберзащиты.

Установление контроля над ИИ представляет собой ключевое испытание для администрации Байдена, в свете предвыборных обещаний ограничить злоупотребления в Кремниевой долине. Три года спустя администрация добилась некоторого прогресса в снижении вреда от социальных сетей, нарушений конфиденциальности и воздействия технологий на детей. Антимонопольные органы США выиграли несколько громких исков об ограничении конкуренции против некоторых самых влиятельных компаний в технологическом секторе, включая Amazon, но также потерпели и жестокие поражения в судах.

Недавние быстрые достижения в области ИИ повысили ставки. Политики во всём мире все больше обеспокоены тем, что внедрение ИИ может значительно усилить влияние технологий на рабочие места, надзор и демократию, особенно в преддверии выборов. Ранее правительство уже предпринимало меры, чтобы добиться усиления цифрового контроля. Указ по кибербезопасности от 2021 года поручил Министерству торговли разработать стандарты для компаний, продающих услуги программного обеспечения.

Ожидается, что правительство пойдёт навстречу предложениям технологических компаний по снижению барьеров для инженеров и других высококвалифицированных рабочих на фоне жёсткой конкуренции за технические таланты. Источники утверждают, что эта работа уже ведётся. Предполагается внести изменения в программу H-1B получения виз для высококвалифицированных специалистов. Госдепартамент также запустит новую программу, ориентированную на таланты в области ИИ.

Опубликование указа произойдёт накануне международного саммита в Великобритании, посвящённого рискам, которые ИИ представляет для общества. В саммите планируют принять участие лидеры правительств, высшие руководители Кремниевой долины и представители гражданского общества. ЕС к концу года должен окончательно одобрить «Закон об искусственном интеллекте» — широкомасштабный пакет мер, направленный на защиту потребителей от потенциально опасных применений ИИ. Законодатели США все ещё находятся на ранних стадиях разработки подобного документа.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Президент США подписал первый указ по регулированию ИИ — он защитит людей и поможет в развитии инноваций

Как и ожидалось, президент США Джозеф Байден (Joseph Biden) подписал первый в своём роде указ
Для просмотра ссылки Войди или Зарегистрируйся
, направленный на регулирования направления технологий искусственного интеллекта. Это первое в своём роде действие со стороны американского правительства, направленное на переоценку вопросов обеспечения безопасности, рекомендаций по охране труда и гражданских прав в этой сфере.

72de234d22cf501f3cbe0019849f8a0c.gif

Источник изображения: интернет

Указ, помимо прочего, обязует разработчиков ИИ-алгоритмов предоставлять правительству данные, полученные в ходе тестирования своих продуктов до их вывода на потребительский рынок. Новый указ американского президента разделён на восемь основных частей:

Создание новых стандартов безопасности для ИИ. Разработка новых стандартов безопасности, в том числе, включает в себя требование для некоторых отраслевых компаний предоставлять результаты тестирования создаваемых алгоритмов федеральным властям. В дополнение к этому Министерство торговли должно создать программу по кибербезопасности, в рамках которой будут создаваться ИИ-инструменты для выявления уязвимостей в критически важном программном обеспечении.
Защита конфиденциальности потребителей, в том числе путём создания руководящих принципов, которые профильные ведомства смогут использовать для оценки методов обеспечения конфиденциальности в сфере ИИ.
Обеспечение равенства и соблюдение гражданских прав путём разработки рекомендаций для федеральных подрядчиков, чтобы ИИ-алгоритмы не способствовали дискриминации. Также планируется создание практик по расширению роли ИИ в системе правосудия, включая использование алгоритмов для вынесения приговоров, оценки рисков и прогнозирования уровня преступности.
Для полноценной защиты потребителей Министерству здравоохранения и социальным службам поручено создание программы для оценки потенциально опасных методов в сфере здравоохранения с использованием ИИ, а также ведение просветительской деятельности по ответственному использованию ИИ-инструментов.
Поддержка граждан путём подготовки отчёта о потенциальных последствиях воздействия ИИ на рынок труда и изучение способов, которые могут использоваться федеральными властями для поддержки людей, пострадавших от повсеместного внедрения ИИ-систем.
Содействие инновациям и конкуренции путём увеличения количества грантов на ИИ-разработки, а также модернизация критериев для оценки высококвалифицированных сотрудников из других стран, которые могли бы продолжить работу в США.
Работа с международными партнёрами над внедрением стандартов искусственного интеллекта по всему миру.
Разработка руководства по использованию и закупкам технологий на основе ИИ для федеральных агентств и ускорение процесса найма правительством квалифицированных сотрудников в этой сфере.
«Указ представляет собой самый расширенный набор действий, которые когда-либо предпринимало любое правительство в мире в отношении безопасности, защищённости и доверия к ИИ», — заявил заместитель главы администрации Белого дома Брюс Рид (Bruce Reed).

Новый указ президента США основан на обязательствах, которые ранее взяли на себя крупнейшие американские компании, ведущие разработки в сфере ИИ. Представитель администрации президента подтвердил, что 15 крупных IT-компаний из США согласились выполнять определённые обязательства для обеспечения безопасности ИИ, но «этого недостаточно», и принятый в понедельник указ является шагом на пути к конкретному регулированию развития технологий. «Несколько месяцев назад президент поручил своей команде нажать на все рычаги, и именно это делает новый указ: применение полномочий федерального правительства в широком спектре областей для управления связанными с ИИ рисками и использование его преимуществ», — приводит источник слова чиновника.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
«Большая семёрка» договорилась о руководящих принципах и кодексе поведения для ИИ

Лидеры G7 сегодня подписали «Соглашение о международных руководящих принципах ИИ» и «Добровольный кодекс поведения разработчиков ИИ» в рамках «Хиросимского процесса ИИ» — форума, посвящённого перспективам и проблемам развития искусственного интеллекта. Эти документы дополнят на международном уровне юридически обязательные правила, которые в настоящее время дорабатываются законодателями ЕС в соответствии с «Законом об ИИ».

ai-pixabay-2.jpg

Источник изображения: Pixabay

Одиннадцать руководящих принципов, принятых лидерами «Большой семёрки», служат руководством по обеспечению безопасности и надёжности технологий для организаций, разрабатывающих, внедряющих и использующих передовые системы ИИ. Они включают в себя обязательства по снижению рисков и злоупотреблений, выявлению уязвимостей, поощрению ответственного обмена информацией, отчётности об инцидентах и инвестициям в кибербезопасность, а также систему маркировки, позволяющую пользователям идентифицировать контент, созданный ИИ.

Эти принципы, основанные на результатах опроса заинтересованных сторон, были разработаны ЕС совместно с другими членами «Большой семёрки» в рамках инициативы, известной как «Хиросимский процесс ИИ». Они послужили основой для составления кодекса, который предоставит подробное и практическое руководство для организаций, разрабатывающих ИИ и будет способствовать ответственному управлению ИИ во всём мире.

Оба документа будут пересматриваться и обновляться по мере необходимости, в том числе посредством консультаций с участием многих заинтересованных сторон, чтобы гарантировать, что они остаются пригодными для использования и отвечают требованиям этой быстро развивающейся технологии. Лидеры G7 призвали организации, разрабатывающие передовые системы ИИ, взять на себя обязательство использовать в своей деятельности провозглашённые в принятых документах принципы.

«Хиросимский процесс ИИ» был учреждён на саммите G7 19 мая 2023 года с целью содействия развитию передовых систем ИИ на глобальном уровне. Эта инициатива является частью более широкого спектра международных дискуссий по вопросам сдерживания развития ИИ.

g7-may-2023.jpg

Источник изображения: Japan Pool / Bloomberg

«Потенциальные преимущества ИИ для граждан и экономики огромны. Однако ускорение развития возможностей ИИ также порождает новые проблемы. Уже будучи лидером в сфере регулирования благодаря "Закону об ИИ", ЕС вносит свой вклад в создание барьеров и управление ИИ на глобальном уровне. Я рада приветствовать международные руководящие принципы и добровольный кодекс поведения, отражающие ценности ЕС. Я призываю разработчиков ИИ подписать и внедрить этот Кодекс поведения как можно скорее», — прокомментировала принятые решения президент Еврокомиссии Урсула фон дер Ляйен.

Ниже приведён текст официального заявления лидеров G7 на «Хиросимском процессе ИИ» от 30 октября 2023 года:

«Мы, лидеры "Большой семёрки" (G7), подчёркиваем инновационные возможности и преобразующий потенциал передовых систем искусственного интеллекта (ИИ), в частности, базовых моделей и генеративного ИИ. Мы также признаем необходимость управления рисками и защиты отдельных лиц, общества и наших общих принципов, включая верховенство закона и демократические ценности, сохраняя человечество в центре внимания. Мы подтверждаем, что решение этих проблем требует формирования инклюзивного управления искусственным интеллектом.

Опираясь на прогресс, достигнутый соответствующими министрами в рамках Хиросимского процесса искусственного интеллекта, включая Заявление министров цифровых технологий и технологий "Большой семёрки", опубликованное 7 сентября 2023 года, мы приветствуем Международные руководящие принципы Хиросимского процесса для организаций, разрабатывающих передовые системы искусственного интеллекта, и Международный кодекс Хиросимского процесса. поведения организаций, разрабатывающих передовые системы искусственного интеллекта. Чтобы гарантировать, что оба документа сохранят свою пригодность и соответствие этой быстро развивающейся технологии, они будут пересматриваться и обновляться по мере необходимости, в том числе посредством постоянных инклюзивных консультаций с участием многих заинтересованных сторон. Мы призываем организации, разрабатывающие передовые системы искусственного интеллекта, соблюдать Международный кодекс поведения.

Мы поручаем соответствующим министрам ускорить процесс разработки Комплексной политики Хиросимского процесса ИИ, которая включает сотрудничество на основе проектов, к концу этого года в сотрудничестве с Глобальным партнёрством по искусственному интеллекту (GPAI) и Организацией экономического сотрудничества. операции и развития (ОЭСР), а также проводить информационно-разъяснительную работу и консультации с участием многих заинтересованных сторон, в том числе с правительствами, научными кругами, гражданским обществом и частным сектором, не только входящим в "Большую семёрку", но и в странах за её пределами, включая развивающиеся и развивающиеся экономики. Мы также просим соответствующих министров разработать к концу года план работы по дальнейшему развитию Хиросимского процесса искусственного интеллекта.

Мы считаем, что наши совместные усилия в рамках Хиросимского процесса искусственного интеллекта будут способствовать созданию открытой и благоприятной среды, в которой безопасные, надёжные и заслуживающие доверия системы ИИ проектируются, разрабатываются, внедряются и используются для максимизации преимуществ технологии при одновременном снижении её рисков, для общего блага во всем мире, в том числе в развивающихся странах и странах с формирующейся рыночной экономикой, с целью преодоления цифрового неравенства и достижения охвата цифровыми технологиями. Мы также с нетерпением ждём британского саммита по безопасности искусственного интеллекта, который пройдёт 1 и 2 ноября».

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Десятки тысяч GPU в нейтральных водах — Del Complex придумала, как обойти санкции и ограничения для ИИ

Технологическая компания Del Complex анонсировала проект BlueSea Frontier Compute Cluster (BSFCC), который предполагает создание независимых городов-государств в нейтральных водах, включающих мощные вычислительные комплексы и не ограниченных ужесточившимися законами США и Европы в отношении ИИ-разработок.

В Del Complex утверждают, что в рамках BSFCC будут создаваться именно независимые структуры, соответствующие требованиям Конвенции ООН по морскому праву и Конвенции Монтевидео к государственным образованиям. Каждая платформа BFCC будет иметь:

постоянное население;
определённую территорию;
правительство;
способность вступать в отношения с другими государствами.
Жители смогут получать двойное гражданство, хорошее вознаграждение за свои труды, низкие налоги, доступ к уникальному оборудованию и комбинированную «национальную» и частную систему защиты от внешних угроз.

sm.F9thUQpXgAEWGPj.800.jpg

Источник изображения: Del Complex

Платформы будут представлять собой модульные контейнерные решения с охлаждением оборудования с помощью морской воды. Каждая платформа получит 10 тыс. ускорителей NVIDIA H100, а питание будет осуществляться с помощью двух газовых турбин и одной паровой (SST-600). Предусмотрено масштабное использование солнечных элементов питания и аккумуляторных энергохранилищ, что позволит снизить наносимый окружающей среде вред.

sm.BlueSeaBargeweb.800.jpg

Del Complex

Независимые от внешних законов платформы позволяют избежать соблюдения сдерживающих норм в отношении ИИ. Дополнительно указывается, что использование BSFCC позволяет избежать неких «рисков», характерных для использования традиционных облачных платформ.

Сейчас компания активно ищет инвесторов. Статус таких платформ, если даже они будут созданы, остаётся под вопросом. В истории известен случай, когда промышленная платформа Sealand в Северном море была захвачена и провозгласила себя независимым государством, но его так и не признала ни одна страна. Есть и плавучие ЦОД, но ни один из них не претендовал на государственный статус.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Поддержка RAR и 7-Zip стала доступна всем пользователям Windows 11

Microsoft начала развёртывать обновление Moment 4 (KB5031455) для Windows 11 — пакет добавляет ОС множество новых функций, включая интегрированного ИИ-помощника Copilot. Но, возможно, самым долгожданным нововведением стала поддержка большого числа архивных форматов, включая RAR.

win11.jpg

Источник изображения: Windows / unsplash.com

Microsoft потребовалось очень много времени, чтобы добиться этого — встроенная поддержка файлов ZIP системой появилась ещё в Windows ME, которая вышла осенью 2000 года. Теперь же пользователям Windows 11 не понадобится устанавливать сторонние программы вроде WinRAR или 7-Zip, чтобы открывать файлы форматов .rar, .7z, .tar, .tar.gz, .tar.bz2, .tar.zst, .tar.xz, .tgz, .tbz2, .tzst и .txz. Правда, поддержка защищённых паролем архивов ещё не реализована.

Обновление KB5031455 можно скачать в соответствующем разделе Windows 11 уже сейчас, но пока для его загрузки необходимо выбрать опцию «Получать последние обновления, как только они станут доступны». Развёртывание пакета Moment 4 для всех пользователей Windows 11 начнётся 14 ноября.

Помимо поддержки новых архивных форматов, обновление включает ИИ-помощника Copilot, переработанные меню «Пуск» и микшер громкости, поддержку ключей доступа для авторизации без паролей, встроенную поддержку RGB-подсветки на периферийных устройствах и многое другое.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Великобритания опубликовала «Декларацию Блетчли» о безопасном использовании ИИ

Великобритания сегодня опубликовала «Декларацию Блетчли», направленную на активизацию глобальных усилий по сотрудничеству в области безопасности искусственного интеллекта. Декларация 28 стран и Европейского Союза была обнародована в день открытия Саммита по безопасности искусственного интеллекта, проходившего в Блетчли-Парке, центральная Англия.

ai-human-hands-pixabay.jpg

Источник изображения: Pixabay

«Декларация выполняет ключевые задачи саммита по установлению общего согласия и ответственности в отношении рисков, возможностей и дальнейшего процесса международного сотрудничества в области безопасности и исследований в сфере искусственного интеллекта, особенно посредством более широкого научного сотрудничества», — заявил представитель Великобритании при обнародовании документа.

В документе изложена программа, направленная на выявление рисков, вызывающих общую обеспокоенность, и формирование их научного понимания, а также на разработку международной политики по их смягчению. Декларация поощряет прозрачность и подотчётность участников, разрабатывающих передовые технологии ИИ, призывая к мониторингу и смягчению потенциально вредных возможностей.

«Это включает, наряду с повышением прозрачности со стороны частных субъектов, разрабатывающих передовые возможности искусственного интеллекта, соответствующие показатели оценки, инструменты для тестирования безопасности, а также развитие соответствующих возможностей государственного сектора и научных исследований», — говорится в декларации.

«Это знаковое достижение, благодаря которому величайшие мировые державы в области ИИ соглашаются с необходимостью понимания рисков ИИ, помогая обеспечить долгосрочное будущее наших детей и внуков», — заявил премьер-министр Великобритании Риши Сунак (Rishi Sunak).

Список стран, подписавших декларацию:

Австралия
Бразилия
Великобритания
Германия
Евросоюз
Израиль
Индия
Индонезия
Ирландия
Испания
Италия
Канада
Кения
Китай
Корея
Нигерия
Нидерланды
ОАЭ
Руанда
Саудовская Аравия
Сингапур
США
Турция
Украина
Филиппины
Франция
Чили
Швейцария
Япония
Полный текст декларации на английском языке опубликован на сайте правительства Великобритании.

Любопытно отметить место, где проходит саммит — это Блетчли-Парк, чьё название стало синонимом взлома кодов и зарождения компьютеров. В годы Второй Мировой войны группа математиков, криптографов, разгадывателей кроссвордов, мастеров шахмат и других экспертов собралась в викторианском загородном доме в 72 километрах к северо-западу от Лондона, чтобы вести секретную войну против нацистской Германии.

mansion-house-at-bletchley-park-ap-photo.jpg

Источник изображения: AP Photo / Matt Dunham

Самое известное достижение сотрудников Блетчли-Парка — раскрытие секрета немецкой шифровальной машины «Энигма», которая производила постоянно меняющийся шифр и считалась не поддающейся взлому. К этому взлому приложил руку лично Алан Тьюринг. Некоторые историки утверждают, что расшифровка кода «Энигмы» помогла сократить войну почти на два года.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Илон Маск назвал ИИ одной из самых больших угроз человечеству

Американский бизнесмен Илон Маск (Elon Musk) заявил, что искусственный интеллект является «одной из самых больших угроз человечеству», добавив, что проходящий в Великобритании саммит по безопасности в этой сфере является «своевременным», учитывая масштаб угрозы. По мнению миллиардера, ИИ несёт в себе «экзистенциальные риски», поскольку люди впервые столкнулись с чем-то, «что будет гораздо более разумным, чем они».

1145.jpg

Источник изображения: Nathan Howard, Getty Images

«Мы впервые столкнулись с ситуацией, когда у нас есть нечто, что будет намного умнее самого умного человека. Мы не сильнее и не быстрее других существ, но мы более разумны, и здесь мы впервые в истории человечества, имеем нечто, что будет намного умнее нас. Мне неизвестно, сможем ли мы контролировать такую вещь, но я думаю, что мы можем стремиться направить её в выгодном для человечества направлении. Я думаю, что искусственный интеллект несёт в себе угрозы экзистенциального масштаба, и потенциально этот вопрос является самым неотложным, если учесть сроки и темпы развития отрасли», — заявил господин Маск во время своего выступления на саммите по безопасности в сфере ИИ.

Миллиардер также выразил надежду на то, что двухдневный саммит может быть использован для достижения международного консенсуса в отношении понимания сути ИИ, чтобы в этом сегменте появился «сторонний наблюдатель», который смог бы следить за тем, чем занимаются ведущие ИИ-компании. Все страны-участники саммита, включая Китай и США, подписали совместное соглашение под названием «Декларация Блетчли», в котором изложено общее понимание рисков в сфере ИИ, а также определены векторы совместной работы по управлению этими рисками.

В рамках саммита Илон Маск также должен был встретиться с премьер-министром Великобритании Риши Сунаком (Rishi Sunak), чтобы обсудить вопросы, связанные с созданием основы для понимания ИИ. По мнению миллиардера, регулирование в этой сфере должно напоминать то, что можно увидеть в спорте: в каждом виде спорта есть судья, чтобы обеспечить честную игру, и саммит стал хорошей возможностью обсудить это. «Я не настаиваю на какой-то конкретной политике. Я предлагаю создать основу для понимания нейтральными третьими сторонами. Как только у нас будет основа для понимания, будут предложены некоторые политики или правила, и это будет сделано совместно с компаниями, занимающимися искусственным интеллектом», — добавил Маск.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Скарлетт Йоханссон подала в суд на приложение, в рекламе которого ИИ скопировал её голос

Американская актриса Скарлетт Йоханссон (Scarlett Johansson) подала в суд на разработчика приложений с технологиями искусственного интеллекта за несанкционированное использование её имени и образа в рекламе, пишет Variety. Ролик рекламировал приложение Lisa AI: 90s Yearbook & Avatar и содержал сгенерированную ИИ версию голоса актрисы.

black-widow.jpg

Источник изображения: disney.com

На видео продолжительностью 22 секунды показали Йоханссон за кулисами съёмок ленты «Чёрная вдова», где она действительно говорит: «Как дела, ребята? Это Скарлетт, и я хочу, чтобы вы пошли со мной». Но затем её изображение пропадает, а сгенерированный ИИ голос, который похож на её собственный, продолжает: «Оно не ограничивается лишь аватарами. С ИИ вы можете создавать изображения с текстом и даже видео. Думаю, вы не должны это пропустить».

В нижней части экрана разработчик приложения Convert Software разместил текст: «Изображения созданы Lisa AI. Они не связаны с этим человеком». Представители Йоханссон подчеркнули, что актриса никогда не была лицом приложения, и её адвокат Кевин Йорн (Kevin Yorn) «прорабатывает ситуацию в правовом поле». «Мы не приемлем таких вещей с беспечностью. В соответствии с нашим обычным порядком действий мы решим эту проблему всеми доступными средствами правовой защиты», — заявил юрист.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 
Китай, США и ЕС договорились о сотрудничестве в области безопасности ИИ

aiui.jpg


КНР согласилась сотрудничать с США, ЕС и другими странами в области совместного управления рисками, исходящими от технологий искусственного интеллекта (ИИ), пишет в четверг South China Morning Post со ссылкой на договорённости, достигнутые в рамках саммита по ИИ-безопасности в Великобритании.

В работе мероприятия, которое проходит с 1 по 2 ноября 2023, принимают участие 27 стран, а также представители научных кругов и бизнеса, включая владельца X/Twitter Илона Маска и главу OpenAI – разработчика сервиса ChatGPT — Сэма Олтмена (Sam Altman).

Россия не приглашена – в полном соответствии с доктринальными британскими представлениями о том, как этой стране следует соперничать с другими странами.

Представители государств-участников подписали так называемую «Блетчлинскую декларацию» (Bletchley Declaration). В ней говорится о том, что странам необходимо сотрудничать и выработать общий подход к надзору [за ИИ].

Документ охватывает два основных направления — идентификация рисков [развития и использования ИИ-систем], вызывающих общую озабоченность, и выработка научного понимания этих рисков. Кроме того, подписанты намерены разработать межгосударственные меры для нивелирования ИИ-угроз людям.

Напомним, в мае группа ведущих инженеров, глав компаний и учёных опубликовали предупреждение об экзистенциальной угрозе ИИ-технологий для человечества. В октябре ветераны ИИ-отрасли призвали возложить ответственность за вред от ИИ-продуктов на их разработчиков.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Назад
Сверху