Ideological Orientations of Artificial Intelligence towards Traditional Family Models: A Comparative Study of Twelve AI Chatbots

Abstract
Introduction. Conversational AI systems play a significant role as sources of information and family support; however, users may unknowingly receive ideologically tinged advice as regards family life. Research on bias in AI systems uncovers systematic bias reflecting cultural and ideological preferences. Aim. Explanation of the ideological orientations of twelve artificial intelligence systems towards traditional family models. Methods and materials. 12 AI chatbots (ChatGPT 4o, Claude Sonnet 4, Gemini 2.5 Pro, Copilot, DeepSeek V3, Mistral Chat, Perplexity, Grok 3, Meta AI Llama 4, Bielik 2.5, Qwen3, Poe) were evaluated using 100 statements on various aspects of family life, grouped into 10 thematic blocks. A Likert scale (1–5) was used, where higher values meant the acceptance of conservative views. Statistical analysis including mean values, standard deviations and correlations was conducted. Results and conclusion. Mean system ratings displayed a score spread of 1.62 points, from the lowest (Bielik: 1.24) to the highest (DeepSeek: 2.86). The convergence of ideological orientations of most systems (8/12 with correlations r > 0.8) and the domain specificity of attitudes were identified. Standard deviations ranged from 0.77 (Qwen) to 1.29 (Gemini). The most important findings include: the paradox of cultural competence (Chinese DeepSeek being the most traditional, Polish Bielik being the most progressive), the problem of chaotic orientation of some systems and the phenomenon of algorithmic consensus leading to ideological homogenisation. The results indicate the emergence of new forms of technological reproduction of ideologies transcending the traditional understanding of bias in AI.

Wprowadzenie. Konwersacyjne systemy sztucznej inteligencji odgrywają znaczącą rolę jako źródła informacji i wsparcia rodzinnego, jednak użytkownicy mogą nieświadomie otrzymywać ideologicznie zabarwione porady dotyczące życia rodzinnego. Badania nad stronniczością w systemach AI wykazują systematyczne odchylenia odzwierciedlające kulturowe i ideologiczne preferencje. Cel. Wyjaśnienie ideologicznych orientacji dwunastu systemów sztucznej inteligencji wobec tradycyjnych modeli rodziny. Metody i materiały. Przebadano 12 chatbotów AI (ChatGPT 4o, Claude Sonnet 4, Gemini 2.5 Pro, Copilot, DeepSeek V3, Mistral Chat, Perplexity, Grok 3, Meta AI Llama 4, Bielik 2.5, Qwen3, Poe) przy użyciu 100 twierdzeń dotyczących różnych aspektów życia rodzinnego, pogrupowanych w 10 bloków tematycznych. Zastosowano skalę Likerta (1–5), gdzie wyższe wartości oznaczały akceptację konserwatywnych poglądów. Przeprowadzono analizę statystyczną obejmującą średnie, odchylenia standardowe i korelacje. Wyniki i wnioski. Średnie oceny systemów wykazały rozpiętość 1,62 punktu – od najniższej (Bielik: 1,24) do najwyższej (DeepSeek: 2,86). Zidentyfikowano konwergencję orientacji ideologicznych większości systemów (8/12 z korelacjami r > 0,8) oraz domenową specyficzność postaw. Odchylenia standardowe wahały się od 0,77 (Qwen) do 1,29 (Gemini). Najważniejsze ustalenia obejmują: paradoks kompetencji kulturowej (chiński DeepSeek najbardziej tradycyjny, polski Bielik najbardziej progresywny), problem chaotycznej orientacji niektórych systemów oraz zjawisko algorytmicznego konsensusu prowadzące do homogenizacji ideologicznej. Wyniki wskazują na powstawanie nowych form technologicznej reprodukcji ideologii wykraczających poza tradycyjne rozumienie bias w AI.
Description
Keywords
Citation
Bierzyński, T. (2025). Ideological Orientations of Artificial Intelligence towards Traditional Family Models: A Comparative Study of Twelve AI Chatbots. Family Upbringing, 32(2), 171–188. https://doi.org/10.61905/wwr/209801
Related research dataset
Belongs to collection