Гонка генеративных чат - ботов ИИ

Совершенно секретно — с ChatGPT теперь можно поговорить без сохранения чата​

История разговора не сохранится и не будет использована для обучения нейросети​


Компания OpenAI в своём корпоративном блоге сообщила, что теперь пользователям чат-бота ChatGPT доступны «новые способы управления данными». Точнее, появилась возможность отключить историю чатов в ChatGPT, то есть разговор с ботом не будет сохраняться, если пользователь этого не захочет. Те чаты, для которых история отключена, также не будут использоваться для обучения и улучшения нейросети и отображаться на боковой панели истории, отмечают разработчики.
Для просмотра ссылки Войди или Зарегистрируйся
Новые элементы управления приватностью уже доступны всем пользователям, их можно найти в настройках ChatGPT и изменить в любое время. Компания также уточнила, что, когда история чата отключена, разговор всё же сохраняется на 30 дней и может быть просмотрен только при необходимости, чтобы исключить злоупотребления. Затем чат с такими настройками будет окончательно удалён.
Кроме функции приватного общения с чат-ботом, OpenAI работает над новой бизнес-подпиской ChatGPT для профессионалов, которым требуется больший контроль над своими данными. ChatGPT Business планируется запустить в ближайшие месяцы, заявляет компания.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 

Meta* отстала в гонке ИИ, потому что тренирует нейросети на CPU​


Meta* занимается разработкой собственного генеративного ИИ, однако компания приступила к этом слишком поздно из-за зацикленности главы Meta* Марка Цукерберга (Mark Zuckerberg) на идее метавселенной — у компании не оказалось подходящих для этого соответствующей аппаратной инфраструктуры. Таким образом компания сейчас вынуждена использовать для ИИ система на CPU вместо решений на GPU. В итоге проект будет реализовываться долго.


 Источник изображения: NVIDIA

Источник изображения: NVIDIA​
Гигант соцсетей давно и крупно инвестирует в исследования, связанные с ИИ. Однако он не спешил внедрять дорогостоящие аппаратные и программные системы для работы с ИИ, что теперь ограничивало его способность идти в ногу с масштабными инновациями.
По словам пяти источников издания Reuters, главной проблемой Meta* сейчас является отсутствие в её распоряжении ускорителей вычислений на базе GPU, из-за чего пока что приходится использовать уже имеющиеся в её дата-центрах системы на центральных процессорах. CPU хорошо подходят для задач, связанных с работой соцсетей, но плохо выполняют работу, связанную с ИИ. В свою очередь графические процессоры идеально подходят для тренировки нейросетей и работы ИИ, поскольку они могут выполнять большое количество задач одновременно, сокращая время, необходимое для обработки миллиардов фрагментов данных.

Meta* разрабатывала собственные ускорители вычислений, которые подошли бы для ИИ, но их крупномасштабное развёртывание, которое было запланировано на 2022 год, в итоге остановили. После этого в прошлом году руководство Meta* разместило заказы на графические процессоры NVIDIA на этот год на миллиарды долларов. Однако этим решения ещё не введены в строй, и таким образом Meta* приходится работать на том, что есть.
Получается, что компания на несколько шагов отстала от конкурентов, таких как Google, которая ещё в 2015 году начала развёртывание собственных ускорителей вычислений TPU, или Microsoft, которая вложила миллиарды в OpenAI и предоставила ей свою облачную инфраструктуру на базе GPU от NVIDIA. В итоге, ИИ-чат-бот OpenAI ChatGPT стал самым быстрорастущим потребительским приложением в истории после своего дебюта, вызвав гонку среди технологических гигантов за выпуск продуктов с генеративным ИИ.
* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 

Работники Google просят не запускать их чат-бот Bard: «Он не просто бесполезный, он еще хуже»​


Bloomberg, по итогам общения с рядом бывших и нынешних сотрудников Google, выяснил, что чат-бот Bard готовили впопыхах и без учета этических соображений.

Патологический лжец​

Чат-бот Google Bard создавался впопыхах. Сами работники Google называли его «патологическим лжецом» и «не просто бесполезным, а еще хуже», и просили руководство компании не запускать его. Об этом говорится в публикации престижного делового издания Bloomberg. Источником информации стали 18 бывших и текущих работников Google.

В феврале 2023 г., незадолго до запуска Bard, сотрудникам Google предложили оценить эффективность чат-бота на базе искусственного интеллекта. Отзывы были один другого хуже. Согласно внутренней переписке, которую смогли изучить журналисты Bloomberg, чат-бот давал зачастую совершенно нелепые ответы и рекомендации, которым ни в коем случае нельзя был следовать.

Например, его инструкции по посадке самолета, вздумай кто-нибудь им следовать, привели бы к катастрофе. А когда его попросили дать рекомендации по плаванию с аквалангом, он выдал ответ, который гарантированно привел бы к «серьезному вреду здоровью или смерти». Во всяком случае, так утверждают знатоки подводного плавания из числа работников Google.

Один из сотрудников компании написал, что от Bard никакого толку нет, и настоятельно попросил руководство не производить запуск. К его совету не прислушались: в марте 2023 г. Bard стал общедоступным.

Игра в догонялки​

Как пишет ArsTechnica, разработка Google намного уступает основному конкуренту — OpenAIChatGPT. Общедоступная ныне версия ChatGPT склонна давать очень странные ответы, зачастую предвзятые и заведомо ложные, где соседствуют реальные факты и сгенерированные машиной домыслы. На некоторые вопросы чат-бот отвечает лучше, на другие — намного хуже.

Тем не менее, когда ChatGPT увидел свет, в Google запаниковали, увидев более чем серьезного конкурента для собственного поисковика. Поэтому разработка Bard велась в условиях аврала и без оглядки на этические соображения.

Более того, из Google в последнее время были уволены или ушли сами сразу несколько специалистов по этике, работавших над проектами искусственного интеллекта. Этическая ревизия ИИ стала «практически полностью добровольной», как пишет Bloomberg.

Бывший директор Google и президент организации Signal Foundation Мередит Уиттэкер (Meredith Whittaker) заявила в интервью, что этика ИИ оказалась буквально «задвинутой», и что если ее не перепозиционировать заново и не установить ее приоритет над доходами и ростом прибыльности, этика в контексте ИИ просто перестанет работать.

В публикации Bloomberg указывается: «Один из бывших работников Google заявил(а), что его или ее усилия по совершенствованию процедур машинного обучения в сторону справедливости наткнулись на противодействие менеджмента, дошедшее до такой степени, что работнику снизили оценки продуктивности. Менеджеры заявили, что такие действия мешают их «реальной работе».

«Не принимать этические вопросы во внимание при разработках ИИ — это бомба замедленного действия и потенциально очень широкого диапазона поражения, — говорит Анастасия Мельникова, директор по информационной безопасности компании SEQ. — Можно было бы сказать, что фактический провал Bard доказывает необходимость более скрупулезной работы, в том числе связанной с этикой, однако скорее всего, причинами неудачи в Google сочтут совсем другие факторы.

Реакция Google на публикацию Bloomberg пока остается неизвестной.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 

Huawei готовит конкурента ChatGPT? Он может называться NetGPT​

Заявка на торговую марку уже подана в китайское ведомство​


Китайская компания Huawei, судя по всему, планирует создать свою версию чат-бота с искусственным интеллектом. Возможное название новой разработки - NetGPT, соответствующая заявка на регистрацию торговой марки была обнаружена на сайте китайского ведомства по патентам и товарным знакам. Известно, что торговая марка Huawei NetGPT относится к классу 9, который включает в себя научные инструменты.
Для просмотра ссылки Войди или ЗарегистрируйсяСгенерировано нейросетью Midjourney
Сейчас заявка находится в списке ожидающих рассмотрения, никаких подробностей о том, для чего будет использоваться эта торговая марка, сайт ведомства не содержит. По названию можно предположить, что Huawei готовит собственного конкурента чат-бота ChatGPT от OpenAI. Это подтверждает сделанное ранее заявление Huawei о том, что она не собирается интегрировать ChatGPT в свои продукты, а сосредоточится на разработке более совершенных технологий искусственного интеллекта. Таким решением может стать NetGPT, которым Huawei в будущем оснастит свои устройства.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Автор, сколько заплатили вам за поддержку этого поста?
 

OpenAI привлекла инвестиции на $300 миллионов при оценке в $27–29 миллиардов​


Компания OpenAI, разработавшая ChatGPT, революционный чат-бот на основе искусственного интеллекта, привлекла средства от новых инвесторов. Среди них числятся венчурные компании Tiger Global, Sequoia Capital, Andreessen Horowitz, Thrive и K2 Global, пишет Для просмотра ссылки Войди или Зарегистрируйся.


 Источник изображения: ilgmyzin / unsplash.com

Источник изображения: ilgmyzin / unsplash.com
Новые инвесторы вложили в OpenAI около $300 млн при оценке компании в $27–29 млрд — и это без учёта тех $10 млрд, которые поступили от Для просмотра ссылки Войди или Зарегистрируйся в рамках эксклюзивного соглашения. Последний инвестиционный раунд предположительно закрывает тендерное предложение, которое готовилось ещё в январе, хотя OpenAI от комментариев пока отказывается. К настоящему моменту внешним инвесторам принадлежат около 30 % компании.
В OpenAI есть множество подразделений, занимающихся разработкой технологий искусственного интеллекта. Больше всего внимания привлекло направление GPT (Generative Pre-trained Transformer) — семейство больших языковых моделей, доступ к которым предоставляется сторонним разработчикам через API. Компания также выпустила в конце ноября основанный на этой технологии генеративный сервис Для просмотра ссылки Войди или Зарегистрируйся, который стал настоящим хитом — только в феврале ресурс посетили более миллиарда пользователей, не считая тех, кто работает с этой службой через сторонние системы. У OpenAI также есть генератор изображений Dall-E и модель распознавания речи Whisper AI.



Источник: Для просмотра ссылки Войди или Зарегистрируйся
 

OpenAI пригрозила судом популярному проекту GPT4free из-за бесплатного использования GPT4 обходными путями​


Для доступа к новейшей языковой модели GPT4 необходимо или оформить платную подписку ChatGPT Plus, либо заплатить за доступ к API OpenAI. Но есть и проект ресурса GitHub под названием GPT4free, который предоставит доступ к моделям GPT4 и GPT3.5 без надобности платить за API. Xtekky, студент-компьютерщик, который управляет репозиторием, сообщил, что получил письмо OpenAI с требованием закрыть проект в течение 5 дней под угрозой судебного разбирательства.


 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com​
Для просмотра ссылки Войди или Зарегистрируйся позволяет пользователям получить бесплатный доступ к моделям GPT4 и GPT3.5, направляя эти запросы через такие сайты, как You.com, Quora и CoCalc, и предоставляя ответы. Проект стал самым популярным новым репозиторием GitHub, собрав на минувшей неделе 14 тыс. звёзд.
Xtekky сообщил ресурсу Tom’s Hardware, что не думает, что OpenAI должна была выставлять требования к нему, поскольку GPT4free не подключается напрямую к её API, а вместо этого получает данные с других сайтов, которые оплачивают собственные лицензии на доступ к GPT. Если у владельцев этих сайтов возникли проблемы с его скриптами, запрашивающими их, они должны обратиться к нему напрямую, заявил автор проекта.

Помимо You.com, Quora и CoCalc, в репозитории GPT4Free также есть скрипты для сбора данных с других сайтов, таких как Forefront и TheB. Любой разработчик может использовать эти простые скрипты для создания собственного бота. Все сайты, с которыми работает GPT4Free, платят лицензию OpenAI за использование его больших языковых моделей (LLM).
Xtekky сказал, что готов удалять сценарии, использующие API отдельных сайтов, по запросу владельцев этих сайтов, добавив, что уже удалил скрипты, использующие phind.com, ora.sh и writesonic.com. Он отметил, любой из этих сайтов может блокировать внешнее использование своих внутренних API с помощью общих мер безопасности, например блокировать обращения к API с чужих IP-адресов.
Xtekky заявил, что не считает себя ответственным за то, как другие используют его проект, и что OpenAI не должна преследовать его за использование API других сайтов, которые находятся в открытом доступе. Он также сообщил, что пока не решил, удалять ли свой GitHub-репозиторий, и обратился к юристам за консультацией. Разработчик подчеркнул, что любой может найти способы использовать API вышеуказанных сайтов, поскольку они по-прежнему не защищены.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 

Созданный с помощью ИИ виртуальный аватар обошёл защиту банка и ввёл в заблуждение родственников​


Обозреватель The Wall Street Journal Джоанна Стерн (Joanna Stern) попыталась выяснить, насколько натуральным может получиться цифровой аватар человека, созданный с помощью передовых алгоритмов на базе генеративного ИИ. Результат эксперимента оказался пугающим, поскольку Джоанне удалось получить собственный цифровой клон, который смог ввести в заблуждение её родственников и обмануть систему голосовой идентификации банка.

 Источник изображения: The Wall Street Journal

Источник изображения: The Wall Street Journal​
Для создания виртуального аватара Джоанна использовала инструмент Synthesia, который позиционируется разработчиками как сервис создания видеоаватаров на основе видео- и аудиозаписей реальных людей. После создания аватара пользователь может вводить любой текст, который виртуальный клон послушно повторяет. Исходным материалом для обучения алгоритма стали 30 минут видео и около двух часов аудиозаписей голоса Джоанны.
Стартап Synthesia берёт $1000 в год за создание и поддержку виртуального аватара, а также взимает с пользователей дополнительную ежемесячную плату. Через несколько недель цифровой клон журналиста был готов, после чего начались его испытания. Джоанна сгенерировала с помощью ChatGPT текст для TikTok-ролика про iOS и загрузила его в Synthesia, после чего аватар создал готовый видеоролик. У неё сложилось впечатление, что она смотрит в зеркало и видит своё отражение.

Однако на данном этапе технология не совсем идеальна. Если при воспроизведении коротких предложений аватар выглядит достаточно убедительным, то более длинные фразы дают понять, что их произносит не человек. Несмотря на то, что в TikTok далеко не все пользователи отличаются внимательностью, некоторые из подписчиков обратили внимание на то, что созданное с использованием виртуального аватара видео выглядит неестественно.
Аналогичная проблема обнаружилась при попытке использовать цифровой аватар во время видеозвонков в Google Meet. К некачественному воспроизведению длинных предложений добавилась то, что аватар всё время держит идеальную осанку и практически не движется. Несмотря на это, очевидно, что в скором времени видеоаватар станет более совершенным, поскольку в разработке Synthesia уже есть несколько бета-версий, способных кивать головой, поднимать и опускать брови, а также выполнять некоторые другие свойственные человеку движения.
 Источник изображения: Joanna Stern / The Wall Street Journal

Источник изображения: Joanna Stern / The Wall Street Journal​
После проверки возможностей видеоаватара Джоанна решила испытать голосовой клон, созданный с помощью генеративного ИИ-алгоритма ElevenLabs. Потребовалось загрузить в сервис около 90 минут записей голоса, и менее чем через две минуты голосовой клон был готов. Аудиоаватар может воспроизводить любой текст голосом пользователя. За создание голосового клона ElevenLabs берёт от $5 в месяц.
По сравнению с видеоаватром от Synthesia, аудиоклон более похож на реального человека. Он добавляет в речь интонации, а само воспроизведение текста происходит более плавно. Сначала Джоанна позвонила сестре и использовала в беседе с ней голосовой клон. Отмечается, что сестра не сразу заметила подвох, но через некоторое время обратила внимание на то, что в процессе беседы голосовой клон не делает пауз, чтобы перевести дух. После этого был звонок отцу с просьбой напомнить номер социального страхования. Он сумел заметить подвох, поскольку голос Джоанны звучал как бы в записи. Несмотря на это, родственники журналиста не сразу заметили, что с ними общается не живой человек, хотя долго обманывать их не удалось.
Ещё один звонок был совершён в службу поддержки Chase Bank. Предварительно алгоритму были заданы несколько вопросов, на которые предстояло ответить в процессе голосовой идентификации банка. После непродолжительного общения Джоанну соединили с представителем банка, поскольку система идентификации голоса не обнаружила каких-либо проблем. Позднее представитель Chase сообщил, что банк использует голосовую идентификацию вместе с другими инструмента подтверждения личности клиентов, отметив, что идентификация по голосу позволяет перейти к общению с сотрудником поддержки, но с её помощью нельзя провести транзакцию или выполнить иную операцию.
Голос, который генерирует сервис ElevenLabs, оказался максимально похож на голос Джоанны. Он учитывал интонации и другие особенности речи. Любопытно, что для создания такого голосового клона достаточно загрузить в сервис несколько аудиозаписей и согласиться с правилами платформы, в которых говорится, что пользователь обязуется не использовать алгоритм в мошеннических целях. Это означает, что при любой желающий может запросто сгенерировать голос кого-то из своих знакомых или знаменитостей.
Представитель ElevenLabs рассказал, что компания разрешает клонировать голос только владельцам платных аккаунтов. В случае нарушения политики платформы аккаунт пользователя будет заблокирован. Кроме того, разработчики планируют выпустить сервис, который позволит загружать в него любое аудио для проверки, использовался ли при его создании алгоритм ElevenLabs. Отмечается, что разработчики могут идентифицировать весь генерируемый пользователями контент для его фильтрации или применения иных мер к нарушителям, включая сотрудничество с правоохранительными органами.
Джоанна отметила, что каждый из используемых ей алгоритмов пока не в состоянии сделать копию, которую невозможно отличить от оригинала. ChatGPT генерировал текст, не опираясь на знания и опыт журналиста. Сервис Synthesia создал аватар, который хоть и выглядит похожим на человека, но не способен передать все характерные особенности пользователя. Наконец, система ElevenLabs генерирует очень похожую речь, но и она не идеальна. В дальнейшем ИИ-технологии продолжат развиваться и, вероятно, в будущем отличить виртуальный аватар от живого человека в процессе общения будет только сложнее.

Источник: Для просмотра ссылки Войди или Зарегистрируйся
 

Стало известно о попытках Google взять новейший ИИ под контроль​

Уволенный из Google инженер рассказал о попытках корпорации взять ИИ под контроль​


20336720.shtml
shutterstock_1036798300-pic_32ratio_900x600-900x600-91086.jpg

Shutterstock

Бывший инженер Для просмотра ссылки Войди или Зарегистрируйся Блейк Лемойн, который был уволен после заявлений о «разуме» у чат-бота с искусственным интеллектом заявил, что корпорация пытается подходить к новейшем версиям ИИ «безопасным и ответственным» способом. Об этом он рассказал в интервью Для просмотра ссылки Войди или Зарегистрируйся.
«Не думал, что Google подгоняется OpenAI. Компания, стоящая за ChatGPT, не повлияет на траекторию Google», — отметил он.
По словам Лемойна, чат-бот с ИИ Bard находился в разработке с середины 2021 года, задолго до того, как ChatGPT был выпущен в конце 2022 года и стал крайне популярен у пользователей сети.
«Я думаю, что Google делает то, что, по их мнению, является безопасным и ответственным, а OpenAI только что выпустила кое-что», — пояснил он.
Он также указал на попытки американской корпорации взять свой вариант ИИ под контроль, в отличие от разработок OpenAI, и что это и могло привести к задержке выхода проекта в публичный доступ.
«Они работали над ним и пытались выяснить, безопасно ли выпускать его. Они были на грани выпуска осенью 2022 года. Так что это должно было выйти примерно в то же время, что и ChatGPT, или прямо перед ним. Затем, отчасти из-за некоторых проблем безопасности, о которых я говорил, они удалили это», — добавил он.
Инженер, который работал в Google до лета 2022 года признался, что у компании есть «гораздо более продвинутые технологии», которые она еще не выпустила.
Летом 2022 года Лемойн Для просмотра ссылки Войди или Зарегистрируйся газете The Washington Post, в котором заявил, что созданная в Google нейросетевая языковая модель LaMDA обладает собственным сознанием. Разработчик первоначально был отстранен от работы из-за нарушения политики конфиденциальности компании. Позже компания Для просмотра ссылки Войди или Зарегистрируйся Лемойна.

Источник Для просмотра ссылки Войди или Зарегистрируйся
 

Почему ChatGPT генерирует небылицы? «Яндекс» рассказал про галлюцинации нейросетей​


И наглядно это продемонстрировал​


ChatGPT уже активно вошла в жизнь людей – к нейросети многие обращаются за советом, она успешно сдает экзамены на юриста или медика. Однако нередко ChatGPT дает неправильные ответы на вопросы, выдавая за факты свою же выдумку.

Для просмотра ссылки Войди или Зарегистрируйся
Это называют галлюцинациями нейросетей, и вот как такие галлюцинации выглядят на деле.

photo_2023-04-28_16-54-03%20(2)_large.jpg

=================================
photo_2023-04-28_16-54-03_large.jpg


photo_2023-04-28_16-54-02%20(2)_large.jpg


photo_2023-04-28_16-54-02_large.jpg


photo_2023-04-28_16-54-01_large.jpg


=============================================================================================

Из этих примеров следует, что на ChatGPT, как, впрочем, и на любую другую нейросеть, нельзя полагаться полностью. Но почему же нейросеть галлюцинирует?

В «Яндексе» называют две причины. Первая заключается в самом принципе работы: модель, лежащая в основе ChatGPT, «читает» последовательность слов и предсказывать на её основе следующее. Затем процесс повторяется, нейросеть предсказывает второе слово и так происходит до тех пор, пока не получится законченный текст. Во время этого стоит задача не дать фактически верный ответ, а ответить так, как бы отвечал человек.

«Таким образом, внутри больших языковых моделей заложены не глубокие знания о мире, а лишь основанное на статистике понимание, как должны строиться тексты и как должны соотноситься между собой запросы и ответы», – поясняет «Яндекс».

Вторая причина галлюцинаций – в том, что предобучение нейросети осуществляется при помощи больших массивов данных, которые не всегда содержат фактически верную информацию (например, если нейросеть обучается на базе ответов на форумах, где люди часто отвечают в соответствии со своими предубеждениями и заблуждениями).

Источник Для просмотра ссылки Войди или Зарегистрируйся
 
Назад
Сверху