На этой странице

Конфирматорный факторный анализ

Модуль Конфирматорный факторный анализ (КФА) проверяет, соответствует ли гипотетическая факторная структура наблюдаемым данным. Вы задаёте, какие переменные нагружают какие факторы, с помощью интерактивной матрицы, настраиваете параметры оценки и запускаете модель — в результате получаете индексы подгонки, оценки параметров, метрики надёжности, предложения по модификации и, при необходимости, диаграмму путей. Модуль также поддерживает факторы второго порядка, проверку измерительной инвариантности по группам и попарное сравнение моделей.

РФА и КФА: Разведочный факторный анализ обнаруживает структуру — данные сами показывают, сколько факторов и какие переменные на них нагружают. КФА проверяет структуру — вы задаёте модель заранее и спрашиваете: «Подходит ли она?» Используйте РФА, когда теории ещё нет. Используйте КФА, когда есть конкретная структура для подтверждения — из предыдущего РФА, публикаций или теоретических соображений. Важно: РФА и КФА следует проводить на разных выборках. Применять оба метода к одним и тем же данным — порочный круг; подробнее — в разделе типичные ошибки.

  1. Выберите переменные (минимум 4 числовых для тестируемой модели)
  2. Задайте факторную структуру в матрице — назначьте индикаторы факторам
  3. При необходимости добавьте факторы второго порядка или остаточные ковариации
  4. Настройте параметры оценки (метод оценки, масштабирование, стандартизация)
  5. Нажмите Проверить данные для предварительной диагностики, затем Запустить КФА для полных результатов

Спецификация модели

Главная панель — это интерактивная матрица фактор–индикатор. Строки — числовые переменные, столбцы — факторы.

Задание нагрузок

  • Щёлкните пустую ячейку, чтобы назначить свободную нагрузку (отображается галочкой)
  • Щёлкните заполненную ячейку, чтобы открыть всплывающую форму, где можно:
    • Ввести число, чтобы зафиксировать нагрузку на этом значении (например, 1 задаёт нагрузку 1.0)
    • Ввести букву или метку, чтобы создать ограничение равенства — все нагрузки с одной меткой будут принудительно равны
    • Оставить поле пустым и нажать «ОК», чтобы вернуть свободную нагрузку
    • Нажать кнопку ×, чтобы убрать нагрузку
  • Клавиши: Enter — подтвердить, Escape — закрыть форму

Управление факторами

  • Названия факторов редактируются прямо в заголовках столбцов (по умолчанию: F1, F2, …)
  • + рядом с названием добавляет новый фактор после него
  • × удаляет фактор (последний оставшийся фактор очищается, а не удаляется)

Автоопределение по именам

Кнопка Автоопределение по именам группирует переменные по части имени до первого символа подчёркивания: anx_1, anx_2, anx_3 образуют фактор ANX. Факторами становятся только группы из 2 и более переменных. Текущая модель при этом заменяется.

Совет по именованию: если переменные следуют схеме префикс_номер (как часто бывает в опросниках), автоопределение может настроить всю модель одним щелчком. При несистематическом именовании назначайте нагрузки вручную.

Сброс

Кнопка Сброс сбрасывает модель до одного пустого фактора и удаляет все факторы второго порядка, остаточные ковариации и модели для сравнения.

Факторы второго порядка

Когда определены два или более факторов первого порядка, под основной матрицей появляется раздел Факторы второго порядка. Он устроен так же, как матрица первого порядка: строки — факторы первого порядка, столбцы — факторы второго порядка (по умолчанию: G1, G2, …).

Когда использовать факторы второго порядка: если факторы первого порядка сильно коррелируют и вы предполагаете, что за этими корреляциями стоит конструкт более высокого уровня. Например, опросник, измеряющий тревожность, депрессию и стресс, может иметь фактор второго порядка «Общий дистресс». Если в РФА вы применяли преобразование Шмида–Леймана и обнаружили сильный общий фактор, КФА с фактором второго порядка — логичный следующий шаг.

Остаточные ковариации

Под матрицей модели можно указать остаточные ковариации между парами наблюдаемых переменных. Выберите две переменные из выпадающих списков и нажмите Добавить. Существующие ковариации отображаются как бейджи с кнопкой удаления.

Когда добавлять остаточные ковариации: если два индикатора разделяют дисперсию сверх того, что объясняет фактор, — как правило, из-за общей методной дисперсии (похожие формулировки, одинаковый формат ответов, расположение рядом в опроснике). Не добавляйте их ради улучшения подгонки — каждая ковариация должна быть теоретически обоснована. Кандидатов подскажет раздел индексы модификации.

Параметры

Масштабирование фактора

Два способа идентификации модели:

  • Маркерная переменная (по умолчанию) — нагрузка первого индикатора фиксируется на 1.0, и фактор принимает шкалу этого индикатора
  • Фиксированная дисперсия — дисперсия фактора фиксируется на 1.0, все нагрузки оцениваются свободно

Какой метод масштабирования выбрать? Оба дают эквивалентные модели с одинаковой подгонкой. Маркерная переменная — общепринятый вариант в большинстве публикаций. Фиксированная дисперсия удобна, когда нужно, чтобы все нагрузки были непосредственно сопоставимы (они уже стандартизованы относительно фактора).

Корреляции факторов

  • Разрешить корреляции факторов (включено по умолчанию) — косоугольная модель. Снимите галочку для ортогональной модели, где все ковариации факторов фиксированы на нуле.

Метод оценки

Метод Когда применять
ML По умолчанию. Предполагает многомерную нормальность. Подходит для непрерывных, примерно нормально распределённых данных при N > 200.
MLM Робастный ML с поправкой Саторра–Бентлера. Используется при непрерывных, но не имеющих нормального распределения данных.
MLMVS Робастный ML с поправкой Саттертуэйта. Схож с MLM, альтернативное масштабирование.
MLMV Робастный ML со сдвигом шкалы. Ещё один вариант робастной оценки.
DWLS Диагонально взвешенный метод наименьших квадратов. Рекомендуется для порядковых данных (шкалы Ликерта).
ULS Невзвешенный метод наименьших квадратов. Альтернатива для порядковых данных, менее распространённая.
WLS Взвешенный метод наименьших квадратов. Требует больших выборок (N > 1000).
GLS Обобщённый метод наименьших квадратов. Устойчив к ненормальности, но редко используется в КФА.

Допущения:

  • ML предполагает многомерную нормальность. Проверьте критерии Мардиа в разделе Проверка данных. При нарушении используйте робастный метод (MLM, MLMVS).
  • DWLS предполагает порядковые индикаторы с непрерывными скрытыми распределениями. Подходит для данных типа Ликерта.
  • Все методы оценки предполагают корректную спецификацию модели — КФА проверяет только вашу модель, а не является ли она наилучшей из возможных.
  • Индикаторы должны быть непрерывными или порядковыми с не менее чем 4–5 категориями ответов для ML. Для бинарных и грубо порядковых пунктов нужен DWLS.
  • Локальная независимость — после учёта факторов индикаторы не должны коррелировать. Остаточные ковариации снимают это требование для конкретных пар.

Порядковые данные? Если индикаторы — пункты шкалы Ликерта (например, 1–5 или 1–7), используйте DWLS. Стандартный ML рассматривает порядковые ответы как непрерывные, что может смещать оценки и завышать хи-квадрат. DWLS корректно моделирует скрытые пороги. При обнаружении порядковых переменных диагностика в разделе Проверка данных порекомендует этот метод.

Пропущенные данные

  • Построчное исключение (по умолчанию) — исключаются наблюдения с пропущенными значениями по любому из индикаторов
  • FIML (метод максимального правдоподобия с полной информацией) — использует все доступные данные без исключения наблюдений. Как правило, предпочтительнее построчного исключения при пропусках, обусловленных случайными причинами.

FIML или построчное исключение? FIML сохраняет все наблюдения и даёт менее смещённые оценки, когда данные пропущены случайным образом. Дополнительные вычислительные затраты минимальны. Если нет особых оснований для построчного исключения, в большинстве ситуаций предпочтительнее FIML.

Стандартизация

Определяет, какие оценки параметров отображаются:

  • Нестандартизованные — оценки в исходных единицах измерения
  • Полностью стандартизованные (по умолчанию) — стандартизованы по дисперсии как латентных, так и наблюдаемых переменных. Нагрузки интерпретируются как корреляции между индикатором и фактором.
  • Стандартизованные (только по латентным) — стандартизованы только по дисперсии латентных переменных

Бутстреп

При включении вычисляются скорректированные на смещение ускоренные доверительные интервалы (BCa). Число репликаций задаётся в глобальной настройке бутстрепа.

Параметры вывода

Параметр По умолчанию Что показывает
Индексы подгонки модели Вкл. Хи-квадрат, RMSEA, CFI, TLI, SRMR и другие
Оценки параметров Вкл. Нагрузки, ковариации, дисперсии, R²
Индексы модификации Вкл. Предложения по улучшению модели
Надёжность факторов (CR, AVE) Вкл. Составная надёжность и конвергентная валидность по каждому фактору
Матрица остаточных корреляций Выкл. Локальные области несоответствия
Дискриминантная валидность Выкл. HTMT, критерий Форнелла–Ларкера
Диаграмма путей Вкл. Визуальная схема модели

Синтаксис lavaan

В нижней части страницы расположен раскрывающийся раздел с синтаксисом lavaan, автоматически генерируемым из вашей модели. Он обновляется по мере изменения матрицы. Доступные действия:

  • Скопировать синтаксис в буфер обмена
  • Редактировать синтаксис напрямую — после внесения изменений появляются кнопки Применить и Отмена
  • Применить отредактированный синтаксис для импорта модели (парсер поддерживает =~ для нагрузок, ~~ для ковариаций, фиксированные значения вида 1*x1, метки равенства, имена в обратных кавычках и продолжения строк, заканчивающиеся на +)

Импорт моделей из публикаций: если в статье модель КФА приведена в нотации lavaan, можно вставить синтаксис напрямую и нажать «Применить». Это часто быстрее, чем заполнять матрицу ячейку за ячейкой.

Проверка данных

Кнопка Проверить данные запускает предварительную диагностику без подгонки модели. Если модель задана, проверяются только её индикаторы; в противном случае — все выбранные числовые переменные.

Отчёт охватывает:

  • Объём выборки — общее N, полные наблюдения, наблюдения по переменным, минимальное N для матрицы весов
  • Пропущенные данные — общий процент пропусков
  • Матрица ковариаций — положительная определённость, минимальное собственное значение, число обусловленности
  • Многомерная нормальность — критерии асимметрии и эксцесса Мардиа
  • Обнаружение многомерных выбросов по Махаланобису — выбросы при p < 0.001 (список наблюдений раскрывается)
  • Высокие корреляции — пары с |r| > 0.85
  • Ненормальные переменные — |асимметрия| > 2 или |эксцесс| > 7
  • Переменные с малой дисперсией — очень низкий коэффициент вариации
  • Порядковые переменные — автоматически определяемые целочисленные переменные с 2–10 уникальными значениями с рекомендацией использовать DWLS
  • Рекомендации — конкретные предложения (использовать FIML, перейти на робастный метод оценки и т. д.)

Запускайте диагностику перед подгонкой. Пять минут проверки данных помогут избежать ошибок сходимости и неинтерпретируемых результатов. Особое внимание уделите проверке матрицы ковариаций — отрицательно определённая матрица не позволит выполнить оценку. Высокие корреляции между индикаторами, нагружающими разные факторы, могут свидетельствовать о перекрёстных нагрузках или ошибочной спецификации модели.

Правила валидации

  • Каждый фактор должен иметь не менее 2 индикаторов
  • Каждый фактор второго порядка должен иметь не менее 2 факторов первого порядка
  • Модель должна быть как минимум точно идентифицированной (df ≥ 0). Точно идентифицированная модель (df = 0) выводит предупреждение — при нулевых степенях свободы индексы подгонки не имеют смысла.

Результаты для одной группы

Результаты выводятся в карточке Конфирматорный факторный анализ. В верхней части — сводка модели: факторы, количество индикаторов, метод оценки, степени свободы, объём выборки, число свободных параметров и соотношение N/параметры.

Под сводкой — две кнопки действий:

  • Восстановить эту модель — возвращает панель спецификации к состоянию, использованному в этом запуске
  • Добавить к сравнению / Убрать из сравнения — включает или исключает модель из набора для сравнения

Индексы подгонки модели

Таблица стандартных индексов подгонки со светофорной интерпретацией (при включённой опции интерпретации):

Индекс Хорошо Допустимо Что измеряет
CFI ≥ 0.95 ≥ 0.90 Насколько ваша модель лучше базовой, где все переменные некоррелированы. 1.0 = идеальное улучшение.
TLI ≥ 0.95 ≥ 0.90 Аналогично CFI, но с учётом сложности модели — добавление лишних факторов не завышает его.
RMSEA ≤ 0.05 ≤ 0.08 Ошибка на степень свободы — «насколько неточна модель в среднем для каждой объясняемой взаимосвязи?»
SRMR ≤ 0.05 ≤ 0.08 Среднее расхождение между наблюдаемыми корреляциями и предсказанными моделью.
GFI ≥ 0.95 ≥ 0.90 Доля дисперсии наблюдаемой матрицы ковариаций, объяснённой моделью. Аналог R².
AGFI ≥ 0.90 ≥ 0.85 GFI с поправкой на сложность модели (степени свободы).

Дополнительные индексы: NFI, RFI, IFI, PNFI, PGFI, AIC, BIC, скорректированный по выборке BIC.

Хи-квадрат сопровождается степенями свободы и p-значением — он проверяет идеальность подгонки модели, что практически всегда отвергается при больших выборках (N > 200). Не отказывайтесь от модели только на основании хи-квадрата. RMSEA включает 90%-й доверительный интервал и p-close (вероятность того, что RMSEA ≤ 0.05). При использовании робастного метода оценки приводятся масштабированные/робастные версии индексов с соответствующей пометкой.

Индексы подгонки в контексте: ни один индекс не является окончательным. Ищите согласованность — если CFI, TLI, RMSEA и SRMR все указывают на приемлемую подгонку, можно быть достаточно уверенным. При расхождении следует разобраться в причинах. Хи-квадрат почти всегда значим при N > 200, поэтому не отвергайте модель только на его основании. AIC и BIC бессмысленны по отдельности — они предназначены для сравнения моделей.

Диаграмма путей

SVG-визуализация подогнанной модели:

  • Латентные факторы — синие эллипсы
  • Наблюдаемые переменные — серые прямоугольники
  • Нагрузки — стрелки от факторов к переменным, цветовая кодировка (зелёный — положительные, красный — отрицательные), толщина пропорциональна величине. Незначимые нагрузки (p > 0.05) отображаются пунктиром с пониженной прозрачностью.
  • Корреляции факторов — двунаправленные дугообразные стрелки слева
  • Факторы второго порядка — фиолетовые эллипсы слева от факторов первого порядка с оранжевыми стрелками
  • Ошибки измерения — маленькие оранжевые кружки справа от каждой переменной
  • Остаточные ковариации — пунктирные двунаправленные стрелки справа от переменных

На путях отображаются значения нагрузок. Легенда в нижней части поясняет визуальное кодирование. Диаграмму можно экспортировать в формате SVG.

Оценки параметров

При включённой опции выводится несколько таблиц с оценками параметров модели. В каждой таблице — общий набор столбцов:

  • Оценка — нестандартизованное значение в исходных единицах измерения
  • Стандартизованная оценка — стандартизованное значение (согласно выбранному методу стандартизации). Для нагрузок интерпретируется как корреляция между индикатором и фактором.
  • ДИ — доверительный интервал оценки (или бутстреп-ДИ при включённом бутстрепе)
  • СО — стандартная ошибка, характеризующая точность оценки параметра. Меньшая СО означает большую определённость.
  • z — отношение оценки к стандартной ошибке. Бо́льшие абсолютные значения свидетельствуют о более весомых доказательствах того, что параметр отличен от нуля.
  • p-значение — вероятность получить такую оценку, если истинное значение равно нулю

Таблицы:

  • Факторные нагрузки — насколько сильно каждый индикатор связан со своим фактором. Стандартизованная нагрузка 0.70 означает, что фактор объясняет примерно половину (0.70² = 0.49) дисперсии индикатора. Нагрузки ниже 0.40 свидетельствуют о слабых индикаторах.
  • Ковариации/корреляции факторов — взаимосвязь между каждой парой факторов. Стандартизованный столбец непосредственно показывает корреляцию. Высокие корреляции (> 0.85) могут означать, что факторы неразличимы — см. раздел дискриминантная валидность.
  • Остаточные ковариации — разделяемая дисперсия между парами индикаторов сверх объяснённой факторами (отображается только при наличии заданных остаточных ковариаций).
  • Дисперсии факторов — объём изменчивости каждого латентного фактора. Отрицательные оценки (случаи Хейвуда) выделяются красным.
  • Остаточные дисперсии — остаток дисперсии каждого индикатора, не объяснённый фактором. Большая остаточная дисперсия относительно общей означает, что фактор слабо отражает этот пункт.
  • R² (объяснённая дисперсия) — значение R² для каждого индикатора, выражающее величину нагрузки в виде единственной доли.

Что здесь означает R²? В КФА R² индикатора — это доля его дисперсии, объяснённой фактором (или факторами), на который он нагружает. R² = 0.60 означает, что фактор объясняет 60% изменчивости этого пункта. Низкий R² (ниже 0.30) говорит о слабом индикаторе — в нём больше шума, чем сигнала.

Случаи Хейвуда в КФА: отрицательная дисперсия фактора или остатка невозможна в реальности и сигнализирует о проблеме — как правило, ошибочной спецификации модели, слишком малом числе индикаторов на фактор или недостаточном объёме выборки. Игнорировать это нельзя — модель требует пересмотра.

Надёжность факторов

Таблица метрик надёжности по каждому фактору:

Метрика Порог Что измеряет
Альфа Кронбаха ≥ 0.70 Традиционная внутренняя согласованность (предполагает равные нагрузки)
Омега Макдональда ≥ 0.70 Модельная надёжность (учитывает неравные нагрузки)
Составная надёжность (CR) ≥ 0.70 Надёжность на основе КФА, вычисленная по стандартизованным нагрузкам
Средняя извлечённая дисперсия (AVE) ≥ 0.50 Конвергентная валидность — разделяют ли индикаторы больше дисперсии с фактором, чем с ошибкой?

Подробнее об альфе и омеге, а также о пороге AVE — на странице анализа надёжности.

Дискриминантная валидность

Три таблицы для оценки того, измеряют ли факторы различные конструкты:

  • Корреляции факторов — матрица межфакторных корреляций. Значения ≥ 0.85 выделяются красным: сильно коррелирующие факторы могут быть неразличимы.
  • HTMT (Heterotrait-Monotrait Ratio) — нижнетреугольная матрица. HTMT сравнивает среднюю корреляцию между индикаторами разных факторов со средней корреляцией внутри каждого фактора. Если межфакторные корреляции почти так же сильны, как внутрифакторные, факторы неразличимы. Ниже 0.85 — хорошо; 0.85–0.90 — пограничная зона; выше 0.90 — проблема.
  • Критерий Форнелла–Ларкера — на диагонали отображается √AVE (доля дисперсии, которую фактор извлекает из собственных индикаторов), вне диагонали — корреляции факторов. Логика: фактор должен объяснять больше дисперсии своих индикаторов, чем разделять с другим фактором. Нарушение происходит, когда корреляция превышает √AVE хотя бы одного из факторов — это значит, что факторы разделяют между собой больше дисперсии, чем с собственными пунктами.

Что такое дискриминантная валидность? Она отвечает на вопрос: «Это действительно разные факторы, или они измеряют одно и то же?» Если два фактора коррелируют на уровне 0.92, возможно, это просто один фактор, искусственно разделённый на два. HTMT считается более надёжным показателем, чем критерий Форнелла–Ларкера: если HTMT < 0.85, дискриминантная валидность обеспечена.

Индексы модификации

Индексы модификации оценивают, насколько снизится хи-квадрат при освобождении одного фиксированного на данный момент параметра. Чем выше ИМ, тем большее улучшение возможно. ИМ = 3.84 соответствует значимому улучшению на уровне 0.05, поэтому отображаются только предложения выше этого порога.

Результаты разбиты на три категории:

  • Предложенные остаточные ковариации — пары переменных, для которых добавление ковариации улучшит подгонку. В каждой строке — значение ИМ, ожидаемое изменение параметра (насколько большой будет ковариация) и кнопка Применить.
  • Предложенные перекрёстные нагрузки — индикаторы, которые могут нагружать дополнительные факторы. В каждой строке — кнопка Применить. Примечание предупреждает, что перекрёстные нагрузки изменяют теоретическую структуру.
  • Прочие индексы модификации — оставшиеся предложения по параметрам.

Используйте индексы модификации с осторожностью. Они говорят, что улучшит подгонку, но не стоит ли это делать. Каждая модификация должна быть теоретически обоснована — «два пункта разделяют методную дисперсию, так как сформулированы похоже» — веская причина; «CFI поднимется» — нет. Изменения, продиктованные данными, опираются на выборочно-специфические паттерны и могут не воспроизводиться. Если вносите модификации, сообщайте о каждой прозрачно и, в идеале, проверяйте на новой выборке.

Матрица остаточных корреляций

Матрица стандартизованных остаточных корреляций между индикаторами. Значения с |r| > 0.10 выделяются красным — это локальные области, где модель не подходит.

Чтение остатков: большие остаточные корреляции между двумя индикаторами говорят о том, что модель упускает что-то в их взаимосвязи. Если оба нагружают один фактор, возможно, тот не полностью объясняет их общую дисперсию (стоит рассмотреть остаточную ковариацию). Если они нагружают разные факторы — возможно, нужна перекрёстная нагрузка. Паттерны больших остатков внутри блока могут указывать на отсутствующий фактор.

Проверка измерительной инвариантности

Когда в выпадающем списке Проверка инвариантности выбрана категориальная переменная, Запустить КФА выполняет последовательную проверку инвариантности по группам, определяемым этой переменной (например, пол, возрастные группы, страны).

Что такое измерительная инвариантность? Прежде чем сравнивать группы по латентной переменной (например, «различается ли тревожность у мужчин и женщин?»), необходимо убедиться, что инструмент измерения работает одинаково в обеих группах. Если факторная структура, нагрузки или интерцепты различаются, межгрупповые сравнения по латентной переменной лишены смысла — это как сравнивать несопоставимые вещи.

Четыре уровня, проверяемых последовательно:

Уровень Что ограничено Что проверяется
Конфигуральный Ничего — одинаковая структура во всех группах Одинакова ли факторная схема в группах?
Метрический (слабый) Факторные нагрузки равны по группам Одинаково ли пункты связаны с факторами?
Скалярный (сильный) Нагрузки + интерцепты равны Можно ли сравнивать латентные средние по группам?
Строгий Нагрузки + интерцепты + остаточные дисперсии Одинакова ли ошибка измерения в группах?

Каждый уровень проверяется только при успешном прохождении предыдущего. Если конфигуральная модель не подходит, дальнейшая проверка не выполняется.

Таблица сравнения инвариантности

Таблица с одной строкой на уровень инвариантности. Левая часть показывает абсолютную подгонку каждой модели; правая — насколько подгонка изменилась относительно предыдущего уровня, что и является ключевым для принятия решений об инвариантности:

  • Хи-квадрат, ст.св. — общее несоответствие модели и степени свободы на каждом уровне

  • CFI, RMSEA, SRMR — индексы подгонки модели на данном уровне (значение аналогично описанному в разделе индексы подгонки модели)

  • Δ хи-квадрат, Δ ст.св., p-значение — значимо ли ухудшили подгонку добавленные ограничения? Значимое p-значение означает, что ограничения не выполняются одинаково во всех группах.

  • ΔCFI, ΔRMSEA — практические меры изменения подгонки. Менее чувствительны к объёму выборки, чем критерий хи-квадрат, и в целом более надёжны.

  • Вердикт — итоговое решение:

    • Принято — Δ хи-квадрат незначим И практические критерии соблюдены (|ΔCFI| ≤ 0.01, |ΔRMSEA| ≤ 0.015)
    • Отклонено — оба индикатора указывают на ухудшение
    • Неоднозначно — критерии расходятся

Хи-квадрат и практические критерии: критерий разности хи-квадрат чувствителен к объёму выборки — при большом N даже ничтожные различия становятся значимыми. Практические критерии (ΔCFI ≤ 0.01, ΔRMSEA ≤ 0.015) более стабильны. При расхождении (вердикт «Неоднозначно») практические критерии, как правило, предпочтительнее, особенно при N > 300 на группу.

Если конфигуральная модель показывает плохую подгонку (CFI < 0.90 или RMSEA > 0.10), появляется предупреждение с рекомендацией улучшить модель перед интерпретацией результатов инвариантности.

Частичная инвариантность

При провале уровня отображается таблица сравнения параметров с оценками по каждой группе и средним отклонением, отсортированными по убыванию разности. Рядом с каждым параметром — кнопка Применить для освобождения соответствующего ограничения.

После освобождения одного или нескольких параметров нажмите Повторить с освобождёнными параметрами — полная последовательность будет проверена заново без ограничений на освобождённые параметры. Освобождённые параметры накапливаются между уровнями.

Частичная инвариантность: если полная метрическая инвариантность не достигнута из-за того, что у одного пункта различаются нагрузки по группам, можно освободить эту нагрузку и повторить проверку. Если остальные пункты инвариантны, достигается частичная метрическая инвариантность — она всё ещё полезна для межгрупповых сравнений, хотя один пункт функционирует по-разному. Та же логика применяется к скалярному и строгому уровням.

Различия латентных средних

При проверке скалярной инвариантности таблица Различия латентных средних показывает латентные средние по факторам для каждой группы. Первая группа служит референсной (средние фиксированы на 0). Столбцы: оценка, стандартная ошибка, z-статистика и p-значение.

Если скалярная инвариантность не установлена, появляется предупреждение о том, что сравнение латентных средних следует интерпретировать с осторожностью.

Интерпретация латентных средних: разность латентных средних 0.35 для группы Б означает, что эта группа набирает на 0.35 единицы больше группы А по латентному фактору. Шкала зависит от выбранного метода масштабирования фактора. Для получения стандартизованного размера эффекта разделите разность на стандартное отклонение фактора (корень из его дисперсии из оценок параметров).

Сравнение моделей

Несколько моделей можно сравнивать рядом. Используйте кнопку Добавить к сравнению в карточке результатов, чтобы поставить модели в очередь, а затем нажмите Сравнить модели (значок с количеством) при наличии 2 и более моделей.

Результаты сравнения

  • Сравнение индексов подгонки — модели как столбцы, индексы как строки (хи-квадрат, ст.св., p, CFI, TLI, RMSEA, SRMR, AIC, BIC). Лучшие значения выделяются зелёным.
  • Критерии разности хи-квадрат — для вложенных пар моделей (определяются автоматически): разность хи-квадрата, разность ст.св. и p-значение. Значимый результат означает, что более ограниченная модель подходит значимо хуже.

Если вложенных пар не обнаружено, появляется рекомендация сравнивать модели по информационным критериям.

Вложенные и невложенные модели: две модели вложены, когда одна является ограниченной версией другой (например, ортогональная модель вложена в косоугольную — добавляется ограничение, что корреляции = 0). Критерий разности хи-квадрат применяется только к вложенным парам. Для невложенных моделей (с разными факторными структурами) сравнивайте AIC и BIC — меньшие значения указывают на лучший баланс подгонки и экономности.

Обработка пропущенных данных

Пропущенные значения обрабатываются согласно опции пропущенных данных в панели параметров КФА. В отличие от других модулей, использующих только глобальную настройку, КФА предлагает FIML как альтернативу построчному исключению.

КФА и объём выборки: КФА, как правило, требует бо́льших выборок, чем РФА. Распространённый ориентир — 10–20 наблюдений на каждый свободный параметр, с абсолютным минимумом около 200. Для проверки инвариантности необходим достаточный объём выборки в каждой группе — менее 50 наблюдений на группу, вероятно, дадут нестабильные результаты.

Контрольный список для отчёта

Что важно включить при описании результатов КФА:

Метод:

  • Спецификация модели — какие индикаторы нагружают какие факторы (синтаксис lavaan — компактный способ сообщить об этом)
  • Использованный метод оценки (ML, DWLS и т. д.) и обоснование
  • Метод масштабирования фактора (маркерная переменная или фиксированная дисперсия)
  • Способ обработки пропущенных данных (построчное исключение или FIML)
  • Объём выборки и соотношение N/параметры
  • Модификации исходной модели и их обоснование (остаточные ковариации, освобождённые перекрёстные нагрузки)

Результаты:

  • Индексы подгонки — как минимум хи-квадрат (ст.св., p), CFI, TLI, RMSEA (с 90% ДИ), SRMR
  • Стандартизованные факторные нагрузки
  • Корреляции факторов
  • Надёжность факторов (CR, AVE) при указании конвергентной/дискриминантной валидности
  • Свидетельства дискриминантной валидности (HTMT или критерий Форнелла–Ларкера) при необходимости
  • Применённые индексы модификации (при наличии) с обоснованием

При проверке измерительной инвариантности:

  • Переменная группировки, объёмы групп
  • Индексы подгонки на каждом уровне инвариантности (конфигуральный, метрический, скалярный, строгий)
  • ΔCFI и ΔRMSEA для каждого сравнения
  • Освобождённые параметры при частичной инвариантности (при наличии)
  • Различия латентных средних (при установленной скалярной инвариантности)

Воспроизводимость

Каждый анализ выводит соответствующий R-код в консоль R — его можно просматривать, копировать и повторно запускать. КФА использует пакет R lavaan; метрики надёжности — semTools. Ссылки на использованные пакеты R автоматически появляются в начале раздела вывода. Предпросмотр синтаксиса lavaan также позволяет экспортировать спецификацию модели напрямую.

Типичные ошибки

Популярность КФА в последние годы резко возросла — отчасти потому, что рецензенты всё чаще его требуют, отчасти потому, что программы стали доступнее. Но доступность несёт свои риски. Несколько важных моментов:

Погоня за индексами модификации. Соблазн велик: добавлять остаточные ковариации и перекрёстные нагрузки до тех пор, пока CFI не пересечёт порог 0.95. Проблема в том, что каждая продиктованная данными модификация опирается на специфические для выборки паттерны, которые могут не воспроизводиться на других данных. Ограничьте модификации теоретически обоснованными, сообщайте о каждой прозрачно и признавайте, что итоговая модель носит разведочный, а не подтверждающий характер.

«Подтверждение» РФА на тех же данных. Провести РФА, обнаружить 3 фактора, а затем запустить КФА на тех же данных для «подтверждения» — порочный круг: модель была извлечена из этих данных, поэтому хорошая подгонка ожидаема. Разделите выборку (РФА на одной половине, КФА на другой) или используйте независимые данные. См. также типичные ошибки РФА.

Проверка только одной модели. КФА наиболее информативен при сравнении конкурирующих структур — трёхфакторная модель лучше двухфакторной? Модель второго порядка лучше модели с коррелирующими факторами? Единственная модель, удовлетворяющая порогам подгонки, совместима с данными, но могут существовать другие модели с не менее хорошей подгонкой. Используйте сравнение моделей для проверки альтернатив.

Отчётность о плохой подгонке как о допустимой. Индексы подгонки ниже стандартных порогов (например, CFI < 0.90, RMSEA > 0.10) указывают на существенное несоответствие. Если модель не подходит, выходы — пересмотреть её прозрачно, признать ограничения или переосмыслить теоретическую структуру, но не переопределять пороги.

Завышение индексов подгонки при DWLS. Оценка методом DWLS (рекомендованным для порядковых данных), как правило, даёт более высокий CFI и более низкий RMSEA по сравнению с ML на тех же данных. Это известное свойство метода, а не свидетельство лучшей подгонки. Ряд исследователей предлагает более строгие пороги для DWLS (например, CFI ≥ 0.99, RMSEA ≤ 0.03), хотя общего консенсуса пока нет. Будьте осторожны, применяя стандартные пороги, выведенные для ML, к результатам DWLS.

КФА как доказательство, а не доказанность. Хорошая подгонка модели означает, что данные совместимы с вашей теорией — но не то, что теория верна. Разные модели могут давать эквивалентную подгонку. КФА предоставляет подтверждающие свидетельства в пользу структуры, но не является её окончательным обоснованием.

Проверка инвариантности как формальность. Пройти полную последовательность конфигуральный → метрический → скалярный → строгий — дело нужное, но ценность состоит в понимании того, какие параметры различаются по группам и почему, а не просто в том, проходит или нет каждый уровень. При провале инвариантности используйте частичную инвариантность для содержательного анализа различий.