WedX - журнал о программировании и компьютерных науках

Публикации по теме 'large-language-models'


Точная настройка MPT-7B на Amazon SageMaker
Точная настройка MPT-7B на Amazon SageMaker Узнайте, как подготовить набор данных и создать обучающее задание для точной настройки MPT-7B в Amazon SageMaker. Каждую неделю объявляются новые большие языковые модели (LLM), каждая из которых пытается превзойти свою предшественницу и занять первое место в списках лидеров. Одна из последних моделей — MPT-7B , выпущенная MosaicML. В отличие от других моделей в своем роде, эта модель с 7 миллиардами параметров имеет открытый исходный код..

ICL: Почему GPT может учиться в контексте? (2022)
Почему GPT может учиться в контексте? Языковые модели тайно выполняют градиентный спуск как метаоптимизаторы Статья Почему GPT может учиться в контексте? Языковые модели тайно выполняют градиентный спуск как метаоптимизаторы дает представление о том, как GPT-3 может учиться на нескольких демонстрациях и предсказывать метки для невидимых входных данных.

3 обязательных метода для загрузки данных в LLM и LangChain
Прием данных, процесс импорта, передачи, загрузки и обработки данных для последующего использования или хранения в векторной базе данных, является критическим этапом в конвейере данных больших языковых моделей (LLM) и LangChain. Качество полученных данных сильно влияет на эффективность и точность этих результатов. В этом сообщении блога мы обсудим три ключевых метода, которые могут…

Чему технологические компании, занимающиеся автономными транспортными средствами (AV), могут научиться у генеративного ИИ?
Несмотря на значительные усилия некоторых крупнейших мировых технологических и автомобильных компаний, проблема автономных транспортных средств остается нерешенной. Было инвестировано более 100 миллиардов долларов , чтобы вывести на рынок беспилотники, но технология еще недостаточно развита для коммерческого выпуска автономных транспортных средств. Недавно я возился с крупномасштабными генераторами изображений с языковым управлением (DALLE2, Stable Diffusion и Google Imagen) и изучал их...

Этот информационный бюллетень AI - все, что вам нужно # 54
Что произошло на этой неделе в AI by Louie На этой неделе мы были рады прочитать, как Демис Хассабис обсуждает грядущую новую модель Gemini Large Language от Deepmind. Исторически сложилось так, что DeepMind в первую очередь посвящала свои усилия обучению с подкреплением (RL) и оставалась относительно спокойной в разработке больших языковых моделей (LLM). Тем не менее, DeepMind стоял за документом Chinchilla, который с тех пор стал эталоном для обучения LLM, а также представил Sparrow в..

Дело против корпоративных LLM
Мнение Дело против корпоративных LLM Трезвый взгляд на то, почему скучно лучше всего, даже для ИИ За последние несколько недель у нас было множество индивидуальных запросов LLM от клиентов и партнеров. Это волнение, хотя и оправданное, основано на потоке технических новостей, а не на получении фундаментального корпоративного преимущества. LLM, даже если они концептуально не далеки от большинства конвейеров обучения на основе трансформаторов, требуют гораздо более сложного..

Освоение генеративного ИИ: путь от нуля к экспертному опыту в области генеративного ИИ
Вы заинтересованы в изучении генеративного искусственного интеллекта, но беспокоитесь о математике? Не волнуйтесь! В этом руководстве мы разберем учебную программу и лучшие способы изучения генеративного ИИ, даже если вы работаете в другой области или отделе. Мы сделаем сложные концепции простыми для понимания, чтобы вы могли с уверенностью отправиться в путешествие по генеративному искусственному интеллекту. Важность генеративного ИИ Объем мирового рынка искусственного..

Новые материалы

Объяснение документов 02: BERT
BERT представил двухступенчатую структуру обучения: предварительное обучение и тонкая настройка. Во время предварительного обучения модель обучается на неразмеченных данных с помощью..

Как проанализировать работу вашего классификатора?
Не всегда просто знать, какие показатели использовать С развитием глубокого обучения все больше и больше людей учатся обучать свой первый классификатор. Но как только вы закончите..

Работа с цепями Маркова, часть 4 (Машинное обучение)
Нелинейные цепи Маркова с агрегатором и их приложения (arXiv) Автор : Бар Лайт Аннотация: Изучаются свойства подкласса случайных процессов, называемых дискретными нелинейными цепями Маркова..

Crazy Laravel Livewire упростил мне создание электронной коммерции (панель администратора и API) [Часть 3]
Как вы сегодня, ребята? В этой части мы создадим CRUD для данных о продукте. Думаю, в этой части я не буду слишком много делиться теорией, но чаще буду делиться своим кодом. Потому что..

Использование машинного обучения и Python для классификации 1000 сезонов новичков MLB Hitter
Чему может научиться машина, глядя на сезоны новичков 1000 игроков MLB? Это то, что исследует это приложение. В этом процессе мы будем использовать неконтролируемое обучение, чтобы..

Учебные заметки: создание моего первого пакета Node.js
Это мои обучающие заметки, когда я научился создавать свой самый первый пакет Node.js, распространяемый через npm. Оглавление Глоссарий I. Новый пакет 1.1 советы по инициализации..

Забудьте о Matplotlib: улучшите визуализацию данных с помощью умопомрачительных функций Seaborn!
Примечание. Эта запись в блоге предполагает базовое знакомство с Python и концепциями анализа данных. Привет, энтузиасты данных! Добро пожаловать в мой блог, где я расскажу о невероятных..


Для любых предложений по сайту: [email protected]