1. Масштабирование графов знаний для автоматизации ИИ цифровых двойников(arXiv)

Автор:Йорн Пленнигс, Константинос Семерцидис, Фабио Лоренци, Нандана Михиндукуласурия

Аннотация . Цифровые двойники — это цифровые представления систем Интернета вещей (IoT), которые часто основаны на моделях ИИ, обученных на данных из этих систем. Семантические модели все чаще используются для связывания этих наборов данных с разных этапов жизненного цикла систем IoT и для автоматической настройки конвейеров моделирования ИИ. Такое сочетание семантических моделей с конвейерами искусственного интеллекта, работающими на внешних наборах данных, создает уникальные проблемы, особенно при масштабном развертывании. В этой статье мы обсудим уникальные требования применения семантических графов для автоматизации цифровых двойников в различных практических случаях использования. Мы представим эталонный набор данных DTBM, который отражает эти характеристики, и рассмотрим проблемы масштабирования различных технологий графов знаний. Основываясь на этих выводах, мы предложим эталонную архитектуру, которая используется в нескольких продуктах IBM, и извлечем уроки для масштабирования графов знаний для настройки моделей ИИ для цифровых двойников.

2. PALT: передача языковых моделей с помощью Parameter-Lite для завершения графа знаний(arXiv)

Автор:Цзяньхао Шэнь, Чэньгуан Ван, Е Юань, Цзявэй Хань, Хэн Цзи, Кушик Сен, Мин Чжан, Песня рассвета

Аннотация: в этом документе представлен подход к обучению с использованием предварительно обученных языковых моделей (LM) с упрощенным параметром для завершения графа знаний (KG). Вместо тонкой настройки, которая изменяет все параметры LM, мы настраиваем только несколько новых параметров, сохраняя при этом исходные параметры LM фиксированными. Мы устанавливаем это, переформулируя завершение KG как задачу «заполнения пробела» и вводя кодировщик с облегченным параметром поверх исходных LM. Мы показываем, что при настройке гораздо меньшего количества параметров, чем при точной настройке, LM нетривиально переходят к большинству задач и достигают конкурентоспособности с использованием прежних современных подходов. Например, мы превосходим подходы полной тонкой настройки на эталоне заканчивания KG, настраивая только 1% параметров. Код и наборы данных доступны по адресу \url{https://github.com/yuanyehome/PALT}.

3.ReaRev: адаптивное обоснование ответов на вопросы с помощью графов знаний(arXiv)

Автор:Костас Мавроматис, Георгий Карипис

Аннотация . Ответы на вопросы сети знаний (KGQA) включают в себя извлечение сущностей в виде ответов из сети знаний (KG) с использованием запросов на естественном языке. Задача состоит в том, чтобы научиться рассуждать над относящимися к вопросу фактами КР, которые проходят через объекты КР и приводят к ответам на вопросы. Чтобы облегчить рассуждения, вопрос декодируется в инструкции, которые представляют собой плотные представления вопросов, используемые для управления обходами KG. Однако, если производные инструкции не совсем соответствуют базовой информации KG, они могут привести к рассуждениям в нерелевантном контексте. Наш метод, названный ReaRev, представляет новый способ рассуждений KGQA в отношении как декодирования, так и выполнения инструкций. Чтобы улучшить декодирование инструкций, мы выполняем рассуждения адаптивным образом, когда информация с учетом KG используется для итеративного обновления исходных инструкций. Чтобы улучшить выполнение инструкций, мы эмулируем поиск в ширину (BFS) с помощью графовых нейронных сетей (GNN). Стратегия BFS обрабатывает инструкции как набор и позволяет нашему методу определять порядок их выполнения на лету. Экспериментальные результаты по трем тестам KGQA демонстрируют эффективность ReaRev по сравнению с предыдущим уровнем техники, особенно когда KG неполный или когда мы решаем сложные вопросы. Наш код общедоступен по адресу https://github.com/cmavro/ReaRev_KGQA.