Существует два типа основных моделей поиска: параллельный и последовательный, которые различаются тем, как люди собирают и оценивают информацию. При параллельном поиске человек сначала составляет план выборки, упорно оценивает все альтернативы, а затем выбирает лучшую альтернативу после сравнительной оценки (при условии, что это лучше, чем выбор варианта без выбора, который обычно считается обеспечивающим нулевую полезность).
В отличие от параллельного поиска, при последовательном, люди оценивают альтернативы одну за другой, пока не найдут желаемую и, таким образом, не прекратят процесс. В процессе последовательного поиска поведенческие факторы руководствуются оптимальным правилом остановки, которое диктует, следует ли немедленно выбрать попавшуюся альтернативу (и, таким образом, прекратить поиск) или продолжить поиск следующего варианта.
Технологии LLM могут кардинально изменить ландшафт поиска информации. В контексте теории поиска большие языковые модели нейросетей представляют новую парадигму, которая бросает вызов традиционным моделям, как параллельного, так и последовательного поиска. В отличие от обычных поисковых систем, которые требуют от пользователей просеивать несколько результатов, LLM предлагают диалоговый интерфейс, который может предоставлять прямые, сводные ответы. Такой подход потенциально снижает временные затраты и изменяет оптимальную стратегию для самого пользователя. Кроме того, диалоговая форма взаимодействия может преобразовать ранее распространённый последовательный поиск (на основе веб-ссылок) в параллельный (на основе набора соображений, сформированного диалогом).
Ключевое различие между размышлением и поиском заключается в следующем: при размышлении люди не знают своих врождённых вкусов и, таким образом, должны прилагать некоторые ментальные усилия, чтобы понять свою собственную природу. Напротив, при целенаправленном поиске люди знают свои вкусы, но сталкиваются с неопределённостью относительно атрибутов или альтернатив и, таким образом, должны оценивать результат.
Например, представьте себе человека, впервые покупающего автомобиль. У него может быть неопределённость относительно его вкусов и ценности различных моделей транспортных средств. Таким образом, его процесс покупки представляет собой серию взаимодействий между обдумыванием и поиском. В частности, он может не знать, какой автомобиль ему нравится, внедорожник или седан. Посетив разные автосалоны и совершив тест-драйв разных автомобилей, он приходит к выводу, что ему по вкусу спортивная машина (обдумывание — выяснение вкусов), а затем сосредотачивает свой взор на внедорожниках.
Он знает, что автомобиль среднего размера соответствует его потребностям, но он не уверен, какой бренд предлагает внедорожник среднего размера, и, таким образом, ему нужно выполнить дорогостоящий поиск этой информации через поиск (выяснение атрибутов). После сужения круга до нескольких брендов он может быть не уверен в том, какой цвет ему нравится больше всего. Попробовав разные модели, он приходит к выводу, что ему по вкусу белый цвет (снова обдумывание — выяснение вкусов). Затем человек сосредотачивается на оценке и сравнении белых внедорожников среднего размера выбранных марок и покупает тот, который больше всего соответствует предпочтениям (опять поиск—выявление атрибутов).
Очевидно, что LLM могут выступать в качестве интеллектуальных посредников в процессе обсуждения, потенциально помогая пользователям прояснить свои собственные вкусы и предпочтения посредством итеративных бесед. Эта связь особенно заметна в сложных сценариях принятия решений, где пользователи могут быть не уверены в своих собственных потребностях или желаниях. Предлагая контекстную информацию, предложения и разъяснения, LLM могут значительно снизить когнитивную нагрузку, связанную с обсуждением, что потенциально приводит к более информированным и удовлетворительным решениям.
Но тут же критики разглядели весьма вероятную опасность неявного внушения пользователю той информации, которая заблаговременно будет «зашита» в саму алгоритмическую модель чат-бота. Причём такие случаи возможны и даже уже известны. Спрашивающий, понадеявшись на «опыт» искусственного интеллекта и на его непредвзятость, сделает не тот выбор, который ему действительно требуется, а тот, который ему подспудно внушили. И это касается не только выбора какого-то товара, а даже показа списка новостей или вариантов подборок научных трудов.
И в этом моменте мы приближаемся к главному недостатку этой технологии: в процессе поиска информации восприятие играет ключевую роль в том, как пользователи оценивают достоверность, релевантность и качество источников. В цифровую эпоху вовлеченность часто проявляется в виде контента, создаваемого пользователями, обратной связи и активного участия в онлайн-сообществах. Технология LLM вводит новые измерения как в восприятие, так и в вовлечение потребителей. С точки зрения восприятия они принципиально меняют то, как пользователи взаимодействуют с источниками информации и воспринимают их.
Но и сами обучающиеся модели машинного обучения порой зависят от «собеседников». Так как такие взаимодействия создают беспрецедентные возможности для пользователей вносить свой вклад и формировать информационный ландшафт. Каждое взаимодействие с LLM можно рассматривать как форму диалога, которая потенциально не только улучшает, но может и ухудшать ответы системы на будущие запросы.
Причём такие примеры были уже неоднократно явно продемонстрированы энтузиастами. Этот сдвиг может повлиять на восприятие пользователями достоверности и релевантности информации, поскольку они взаимодействуют с ИИ, который, , как люди уверены, правильно «понимает» их запросы и предоставляет истинные контекстные ответы. Но это далеко от действительности. Именно поэтому популярность диалогов с ИИ, в вопросах серьёзного научного/технологического подхода, резко пошла на спад.
Тем не менее, некоторые фармацевтические компании, занимающиеся разработкой лекарств, настраивают свои модели искусственного интеллекта для взаимодействия с другими инструментами машинного обучения, такими как платформы обнаружения целей, граф знаний и моделями вычислительной химии. Но результат всегда тщательно проверяется.
На такую проверку уходит масса времени и значительные мощности вычислительных ресурсов сервера, но есть вероятность, что без помощи компьютерного анализа вообще нечего бы было проверять. Кроме того, чат-бот ИИ также может помогать юристам, определяя темы, закономерности или разделы в больших наборах документов, расставляя приоритеты и классифицируя документы на основе их релевантности делу, находя ключевые концепции, сущности и связи в документах, и резюмируя их. Система даже может генерировать правильные запросы, что иногда весьма востребовано именно в этой сфере.
В то время как продолжаются дебаты о плюсах и минусах чат-ботов и ИИ в целом, а также несмотря на ограничения и неопределённость этих развивающихся технологий, генеративный ИИ имеет большой потенциал для преобразования того, как человечество будет получать, производить и потреблять информацию в будущем.