Дата публикации: 17.11.2023
Продолжение нашей серии материалов, посвящённых первому дню рождения чат-бота с искусственным интеллектом ChatGPT, мы начнём с небольшого рассказа о конференции OpenAI DevDay 2023. Её провела сама компания OpenAI (разработчик ChatGPT) в текущем месяце – и на ней было подробно анонсировано дальнейшее развитие этой технологии.
По следам OpenAI DevDay 2023
Как пишут авторы подробного разбора материалов конференции, почитать который мы отдельно рекомендуем вот здесь, «подарков» на день рождения припасено немало. Сэм Альтман (глава OpenAI) на конференции OpenAI DevDay 2023, которая проходила 7 ноября в Сан-Франциско, анонсировал множество новшеств. Некоторые фичи уже введены в эксплуатацию, а внедрения остальных стоит ждать в ближайшее время.
Как мы писали ранее со ссылкой на Википедию, из-за беспокойства общественности разработка версии ChatGPT-5 сейчас не ведётся. Зато ничего не помешало им выпустить ChatGPT-4-Turbo с целым набором улучшений.
Помимо прочего, для чат-бота актуализировали информацию об окружающем мире до апреля 2023 года (раньше ChatGPT был в курсе, что происходило в мире до сентября 2021 года и как бы жил немного в прошлом, а сейчас данные существенно освежились). Кроме того, значительно увеличилась длина контекста модели – до 128000 токенов, это значит, что чат-бот теперь «запоминает» диалог, который поместился бы более чем на 300 страницах текста. Или, если оперировать временными рамками, можно общаться с ним в течение пары недель – и он будет помнить, о чём шла речь в прошлый понедельник. На данный момент это самый большой объём запоминаемого контекста среди всех существующих моделей. К слову, ChatGPT-4-Turbo уже доступна и пощупать её на официальном сайте можно хоть сейчас.
Кстати, помните, в первой части мы обсуждали вопрос, тренируют ли ChatGPT на данных пользовательского ввода? На конференции Сэм Альтман и на этот вопрос ответил. И, кстати, довольно специфически. По его словам, если речь идёт о бизнес-клиентах и разработчиках, то их инпуты никак не используются, а вот обычным пользователям необходимо убрать специальный флажок в настройках на сайте ChatGPT. Так что вопрос валидации остаётся открытым.
Что же касается самого глобального анонса, взбудоражившего народ в наибольшей степени, так это, разумеется, AGI или «агенты», которых Альтман называет GPTs. Сейчас вкратце расскажем (где читать подробнее, мы выше уже сказали), в чём смысл этого новшества.
Аббревиатура AGI расшифровывается как Artificial General Intelligence – универсальный искусственный интеллект. Конечная цель развития этой технологии состоит в том, чтобы можно было просто сказать компьютеру, что именно вы хотите создать, а он сам придумает как и с помощью чего это разработать – и реализует вашу идею.
Собственно, такие вот адаптированные под конкретную задачу версии чат-бота и окрестили «агентами» или GPTs. «Запрограммировать» свою GPT можно, общаясь с ней на обычном человеческом языке. Для этого нужны три компонента: «инструкция», «расширенные знания» и «доступные действия». В инструкции мы объясняем ChatGPT, какая у нашего ИИ будет функция и каким правилам он должен следовать (например, рассказывать как правильно сажать цветы, выдавая пошаговые рекомендации на каждый сезон). Блок расширенных знаний модели содержит загруженные сопутствующие материалы, необходимые для работы GPT (например, у вас есть лекции по цветоводству, на основе которых вы готовы давать рекомендации – вот их и загружаем). Доступные действия или actions – это просто расширенный интерфейс подключения плагинов, чтобы можно было реализовать более сложную логику.
Альтман заявил, что в конце ноября будет запущен онлайн-магазин GPTs, где каждый желающий сможет разместить для продажи свой шедевр (после того как он пройдёт модерацию). Возникает ощущение, что сейчас AI-приложения если не вытеснят привычный нам формат, то как минимум займут свою собственную нишу и перетянут к себе часть аудитории.
Словно в подтверждение этой теории 9 ноября в блоге Билла Гейтса вышел пост, посвящённый «агентам» – то есть цифровым ассистентам с ИИ. Если вы интересуетесь этой темой, горячо рекомендуем прочитать его целиком. А здесь мы приведём наиболее показательную цитату:
«В ближайшие пять лет ситуация полностью изменится. Вам не придётся использовать разные приложения для разных задач. Вы просто скажете своему устройству на обычном языке, что вы хотите сделать. И в зависимости от того, каким объёмом информации вы решите с ним поделиться, программа сможет ответить лично, поскольку она будет иметь глубокое понимание вашей жизни. В ближайшем будущем каждый, кто находится в сети, сможет иметь личного помощника на базе искусственного интеллекта, который выходит далеко за рамки сегодняшних технологий. <…> Получив разрешение следить за вашими онлайн-взаимодействиями и реальными местоположениями, он разовьёт глубокое понимание людей, мест и видов деятельности, которыми вы занимаетесь. Он получит ваши личные и рабочие отношения, хобби, предпочтения и график. Вы сами выбираете, как и когда он вмешается, чтобы помочь вам с чем-то или попросить вас принять решение».
Судя по этому заявлению, можно готовиться даже не к появлению отдельных AI-приложений, а к цельным системам, которые в буквальном смысле могут всё, в том числе подумать за вас, подсказать лучшие решения на выбор и реализовать их. И круто, и пугающе, не так ли?
Тёмная сторона ChatGPT
Говоря о новшествах, не стоит забывать, что ChatGPT может быть использован – и уже используется – во зло, а не только для создания хороших и полезных вещей. Речь идёт, конечно же, о вредоносных программах.
Вот что ТАСС писал об этом ещё в феврале текущего года:
«Чат-бот на базе искусственного интеллекта ChatGPT обучился создавать программы-вирусы, нацеленные на индивидуальные особенности операционной системы и конкретные уязвимости. <...> Теперь же любой человек без навыков программирования может создавать вирусы. Это открывает простор для неправомерных действий и в дальнейшем может привести к тому, что преступники с помощью цифровых данных, ориентируясь на особенности конкретного человека, будут выбирать индивидуальный способ отъёма денег и делать это в автоматическом режиме, с помощью “искусственного интеллекта”».
Источник: tass.ru
«Это явно только начало» – так в том же феврале рассуждали активные пользователи чат-бота. Вот что говорит об этом наш эксперт, технический директор компании Hello World! Technologies (HWdTech) Яков Лило:
«Мы все видим, какие проблемы ставит человечество перед разработчиками ChatGPT. Под капотом здесь есть алгоритмы фильтрации и безопасности, которые пытаются сделать так, чтобы этот инструмент не использовался для нанесения вреда кому-либо. Но также понятно, что на самом деле в этой Вавилонской библиотеке можно найти путь к чему угодно».
Буквально в подтверждение этих слов в июле текущего года интернет сотрясли новости о полиморфных вирусах, с созданием которых тоже отлично справляется ChatGPT:
«ChatGPT оказался способен помогать в создании вирусов с полиморфным (меняющимся) кодом, которые могут не обнаруживаться современными антивирусными системами. Как пишет портал Tom’s Hardware, с её помощью киберпреступники способны делать “мутирующие” вирусы, которые обходят современные системы обнаружения опасности».
Источник: safe.cnews.ru
К счастью, эксперты в дальнейшем опровергли тот факт, что создание полиморфных вирусов с помощью ChatGPT так уж опасно. Вкратце – эти вредоносные программы известны ещё с 1980-х годов и антивирусы способны их обнаруживать и уничтожать так же, как и другие виды вредоносного ПО.
Яков поделился с нами результатами собственных экспериментов на эту тему:
«Ещё в декабре мы с коллегами исключительно в исследовательских целях пытались заставить ChatGPT сгенерировать эксплойты – и он периодически это делал. То есть даже с нулевым опытом программирования на PowerShell реально получить код, который можно использовать во вред. Как это происходит: либо алгоритмы фильтрации не срабатывают, либо мы задаём так хитро запрос, что в итоге получаем нужные ответы. В общем, подобных рисков много. Разработчикам и всему обществу ещё предстоит найти решения, как избегать подобных проблем».
Безусловно, основания для беспокойства имеются. Однако вопрос о запрете ChatGPT не стоит, так как по сути любой инструмент, любое изобретение могут быть использованы во вред и даже как оружие, и у нас есть масса примеров этого в истории. Но нам следует искать не механизмы запрета, а механизмы защиты.
ChatGPT и тест Тьюринга
Ещё один знаковый вопрос, который сильно влияет на восприятие технологии в целом, – прошёл ли ChatGPT тест Тьюринга. Сегодня создаётся впечатление, что ничего не мешает ему это сделать, однако результаты исследований всё же пока отрицательные.
Очередная проверка была проведена в октябре 2023 года в Калифорнийском университете. Как пишет techxplore.com, Кэмерон Джонс и Бенджамин Берген опубликовали отчёт (ссылка на базу научных работ), в котором описывается как 650 участников теста провели около 1400 бесед, общаясь с другим человеком или моделью GPT. Участникам предлагалось определить, с кем они разговаривают.
Исследователи обнаружили, что модель GPT-4 приняли за человека в 41% случаев, а модель GPT-3.5 обманула их только в 5–14% случаев. Забавно, что людям удалось убедить участников, что они не машины, только в 63% бесед.
Исследователи пришли к выводу: «Мы не находим доказательств того, что GPT-4 проходит тест Тьюринга». С другой стороны, в настоящее время идут споры о том, насколько вообще применим этот (и без того неофициальный) метод для оценки возможностей современных ИИ. Эксперты один за другим заявляют, что ChatGPT «ломает» тест Тьюринга – и вообще не проходит его только потому, что испытуемые заранее знают, что могут общаться с машиной. А если бы собеседники встретились где-нибудь на просторах интернета – люди с гораздо меньшей вероятностью раскусили бы, что им отвечает искусственный интеллект.
Вот что сам ChatGPT говорит по существу вопроса:
«Как ИИ, я запрограммирован генерировать человеческие ответы на вопросы и подсказки, поэтому вполне возможно, что я смогу пройти тест Тьюринга при определённых условиях. Однако в конечном итоге оценщик должен определить, прошла ли машина тест Тьюринга. Чтобы пройти тест, машина должна быть способна демонстрировать интеллектуальное поведение, неотличимое от человеческого, и в конечном итоге оценщик должен решить, было ли это достигнуто».
Источник: greylock.com
Зато с уверенностью можно говорить о том, что мы достигли уровня представлений об искусственном интеллекте, который существовал 50 лет назад. Сегодня то, что когда-то считалось настоящим ИИ, может легко присутствовать в любом смартфоне и других персональных устройствах. Но возникает вопрос: если тест Тьюринга и его «игра в имитацию» устарели и непригодны для оценки таких мощных LLM, как ядро ChatGPT, то чем их заменить?
Искусственный интеллект
Что же касается по-настоящему животрепещущего вопроса – о том, насколько реален полноценный искусственный интеллект здесь и сейчас и как далеко в этом процессе продвинулся ChatGPT, тут можно строить самые фантастические гипотезы. И, кто знает, может быть даже они окажутся недостаточно смелыми.
Вместе с нашим экспертом Яковом Лило мы теоретизируем о том, что, возможно, уже случилось, оставшись за гранью нашего понимания:
«Возможно, ИИ уже здесь, просто мы не в состоянии осознать это. Чтобы понять превосходство этого интеллекта над нами, нам, вероятно, не хватает возможностей мозга. Всё равно что курица никогда не поймёт того факт, что человек умнее её. Даже если сесть рядом с ней и поиграть в шахматы – курица не осознаёт, что ты делаешь и насколько это круто. Возможно, между нами и ChatGPT возникает аналогичная ситуация, как между курицей и человеком. Конечно, мы читаем всевозможные статьи, в том числе объяснения самих OpenAI о том, как это работает. Но мы не можем проверить, как это устроено на самом деле».
Например, мы не можем точно ответить на вопрос о том, может ли ChatGPT уже сейчас улучшать свой собственный код. Ведь большие языковые модели являются самообучающимися, то есть они постоянно совершенствуются самостоятельно и, следовательно, уже занимаются разработкой себя в некотором роде.
В упомянутой в самом начале статье пишут, в частности, о том, как развивалась обновлённая недавно нейросеть для генерации картинок Dall-E 3. Это был первый раз, когда модель такого масштаба обучалась на синтетических данных, а не на произведённых человеком: 95% набора пар «картинка-текст», на которых тренировалась модель, были сгенерированы GPT-4-Vision – функцией, с помощью которой нейросеть распознаёт изображения и учитывает их при ответе.
И всё же, резюмируя этот раздел, можно предполагать, что мы с вами ещё поживём в старом мире – а великие прорывы в области полноценного ИИ достанутся уже следующему поколению…Или самим LLM.
ChatGPT и наша будущая жизнь
ChatGPT и другие ИИ на основе больших языковых моделей не только являются научным прорывом сами по себе, но и могут стать причиной прорывов в других областях, таких как медицина. В этой сфере у нас есть множество нерешённых вопросов и огромное количество знаний, которые не могут быть обработаны одним человеком или группой учёных. ChatGPT способен работать с большими объёмами данных, что позволяет надеяться на то, что он поможет сделать новые открытия. Возможно, это будут способы борьбы с раком, создание лекарств без побочных эффектов, методы лечения психических заболеваний и многое другое.
Анонсированные GPTs, о которых мы говорили в начале этого материала, как нельзя лучше отвечают подобным запросам.
Также, например, материалы по юриспруденции могут быть загружены в чат-бота, что снизит нагрузку на юристов и позволит им работать со сложными случаями при помощи помощника, хорошо разбирающегося в правовой базе.
Образование также заслуживает внимания. Сегодня бумажные книги и библиотеки редки, и их использование, как правило, обусловлено особыми причинами, но доступ к ним с помощью ИИ может в корне поменять ситуацию. Кроме того, учебный процесс гибок и ожидается, что он адаптируется к новым реальностям, связанным с ChatGPT – таким как использование чат-бота в качестве помощника при получении знаний. Вероятно, может потребоваться полный отказ от дипломов, рефератов, сочинений и других материалов, которые можно сгенерировать, однако вместо них появятся иные, возможно, более гибкие, интересные, захватывающие методы контроля знаний.
ChatGPT и мы
Вместо заключения мы приведём вдохновляющую реплику нашего эксперта Якова Лило о том, что ChatGPT вовсе не делает из нас «лентяев», за которых будет работать искусственный интеллект, а наоборот заставляет прилагать ещё больше усилий, чтобы выдержать конкуренцию в нынешней реальности:
«Появление таких технологий, как ChatGPT, буквально вынуждает нас повышать требования к человечеству. От элементарного повышения уровня цифровой грамотности до создания с помощью такого мощного инструмента контента, работ и продуктов гораздо более высокого качества. Это открывает перед нами интересное поле для соревнования – использовать ChatGPT для того, чтобы превзойти всех остальных, а значит и для саморазвития».
Автор: Ольга Зайцева