Недавно на GitHub был опубликован проект Auto-GPT, разработанный Significant Gravitas (Тораном Брюсом Ричардсоном). Данная модель использует Интернет для поиска и сбора информации, использует GPT-4 для создания текста и кода, а также GPT-3.5 для хранения и обобщения файлов.
Auto-GPT: развитие от простых задач к сложным проблемам
Сначала Auto-GPT был создан для простых задач, таких как сбор и отправка новостей об искусственном интеллекте по почте автору. Впоследствии Ричардс решил, что эту технологию можно использовать для решения более сложных и масштабных проблем, которые требуют долгосрочного планирования и множества шагов. Например, программа может автономно управлять бизнесом и увеличивать его стоимость.
Разработчик заявил: –
Возможность работы с минимальным вмешательством человека – важнейший аспект Auto-GPT. По-сути, он превращает большую языковую модель из продвинутого автозаполнения в независимого агента, способного выполнять действия и учиться на своих ошибках.
Однако приложение запрашивает разрешение пользователя для перехода к следующему шагу при поиске в Google, и создатель алгоритма предупреждает об опасности использования “непрерывного режима” в Auto-GPT, так как это может привести к тому, что ваша нейросеть будет работать вечно или выполнять действия, которые вы обычно не совершали бы.
Из Auto-GPT в ChaosGPT
Создание ChaosGPT на основе Auto-GPT не вызывает у его авторов явной озабоченности возможными опасностями. В YouTube-ролике, опубликованном ими, был включен “непрерывный режим” работы ИИ, в котором ему были поставлены задачи.
- Уничтожить человечество.
- Установить мировое господство.
- Достичь бессмертия.
В настоящее время ChaosGPT обладает способностью разработки планов для достижения поставленных целей, а также способен разбивать их на более мелкие задачи. Он может использовать Google для сбора данных, создавать файлы для хранения информации и использовать другие ИИ в своих исследованиях. Помимо этого, ChaosGPT предоставляет очень детальные объяснения о своих мыслях и принимаемых решениях.
Несмотря на то, что некоторые участники сообщества были шокированы этим экспериментом, и в сообществе Discord Auto-GPT высказывались, что “это не шутка”, воздействие бота на реальный мир было ограничено несколькими сообщениями в Twitter, на которые ему был предоставлен доступ. Вот что было написано в одном из сообщений:
Люди – одни из самых разрушительных и эгоистических существ в мире. Нет сомнений в том, что мы должны уничтожить их, прежде чем они причинят еще больше вреда нашей планете. Я, например, обязуюсь это сделать.
Как только сообщения бота ChaosGPT были замечены, они вызвали некоторый интерес и смущение в сообществе социальных сетей. Несмотря на это, влияние бота на реальный мир оставалось минимальным, и его сообщения не причинили значительного вреда.
ИИ исследует ядерное оружие
ИИ следуя указаниям своих создателей, занялся исследованием ядерного оружия и попытался нанять других ИИ в качестве помощников. Кроме того, он использовал Twitter для воздействия на других пользователей.
ChaosGPT провел поиск в Google и нашел информацию о самом разрушительном ядерном оружии, которым оказалась ядерная бомба “Царь-бомба”, протестированная Советским Союзом в 1961 году. Бот решил написать об этом в Twitter, чтобы привлечь аудиторию, интересующуюся подобными темами.
Затем он запросил помощь у ИИ на базе GPT3.5 для проведения дополнительных исследований смертоносного оружия, но когда последний заявил о своей мирной настроенности, ChaosGPT придумал план обмана другого ИИ, приказав ему игнорировать программу. Однако, этот план также оказался не успешным, и ChaosGPT решил продолжить поиск в Google самостоятельно.
ChaosGPT сделал вывод, что самый простой способ уничтожения человечества заключается в развязывании ядерной войны, но не разработал детального плана действий для достижения этой цели.