Dijital teknolojilerin sosyal hizmet alanına entegrasyonu, risk değerlendirmesinden vaka yönetimine, müdahale planlamasından izleme ve değerlendirme süreçlerine kadar pek çok uygulamayı köklü biçimde dönüştürmekte ve sosyal hizmet sunumunda hız, standartlaşma ve verimlilik sağlamayı hedeflemektedir; ancak bu dönüşüm süreci tüm bireyler ve aileler için eşit fırsatlar üretmemekte, aksine mevcut toplumsal, ekonomik ve yapısal eşitsizlikleri bazı gruplar açısından yeniden üretmekte ve derinleştirmektedir. Özellikle sosyoekonomik olarak dezavantajlı konumdaki ailelerin dijital okuryazarlık düzeylerinin düşük olması, internet erişimine ve teknolojik cihazlara sınırlı ölçüde sahip olmaları, dijital altyapı eksiklikleri ve bürokratik dijital sistemlerin karmaşıklığı, dijital eşitsizlik ve dijital yoksunluk olgularını daha görünür hale getirmektedir. Bu durum, söz konusu ailelerin sosyal hizmet mekanizmalarına erişimini zorlaştırmakta, çevrim içi başvuru ve izleme süreçlerinden dışlanmalarına yol açmakta ve hizmet süreçlerine aktif katılımını ciddi biçimde kısıtlamaktadır. Dijital erişim ve beceri eksiklikleri, ailelerin ihtiyaçlarının doğru, bütüncül ve bağlamsal biçimde değerlendirilmesini engellerken, müdahale planlarının ailelerin gerçek yaşam koşullarını yeterince yansıtamamasına neden olabilmektedir. Bu bağlamda dijitalleşen sosyal hizmet modelleri, yalnızca mevcut yoksunlukları değil, aynı zamanda görünür olmayan yeni eşitsizlik biçimlerini ve erişim engellerini de ortaya çıkarmaktadır. Ailelerin sosyal hizmet süreçlerine katılımının niteliği ve sürekliliği, dijital araçlara erişim ve bu araçları kullanabilme kapasitesiyle doğrudan ilişkili hale gelmektedir. Türkiye, ABD, Hollanda ve İngiltere’deki örnek uygulamalar, yapay zekâ temelli risk analizleri ve karar destek sistemlerinin belirli toplumsal gruplar, aile tipleri ve kültürel yapılar üzerinde farklı etkiler üretebildiğini göstermekte; bu etkilerin sosyal adalet, eşitlik, etik sorumluluk ve insan onurunun korunması çerçevesinde ele alınmasının zorunlu olduğunu ortaya koymaktadır.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
The integration of digital technologies into the social work sector is fundamentally transforming practices ranging from risk assessment and case management to intervention planning and monitoring processes, with the aim of increasing speed, standardization, and efficiency; however, this transformation does not generate equal opportunities for all individuals and families and instead reproduces and deepens existing social, economic, and structural inequalities for certain groups. In particular, low levels of digital literacy among socioeconomically disadvantaged families, limited access to the internet and technological devices, deficiencies in digital infrastructure, and the complexity of bureaucratic digital systems make digital inequality and digital deprivation more visible, restricting access to social work mechanisms, excluding families from online application and follow-up processes, and limiting their active participation in interventions. The lack of digital access and skills hampers accurate, comprehensive, and contextual assessments of families’ needs and may result in intervention plans that fail to reflect real-life circumstances, while digitalized social work models simultaneously expose existing forms of deprivation and create new, less visible barriers to access. Consequently, the quality and continuity of participation in social work processes have become increasingly dependent on families’ access to digital tools and their capacity to use them, and international experiences from Turkey, the United States, the Netherlands, and the United Kingdom demonstrate that AI-based risk analyses and decision-support systems can produce differentiated impacts across social groups, family structures, and cultural contexts, necessitating careful evaluation within frameworks of social justice, equality, ethical responsibility, and the protection of human dignity.
Digital technologies have become central to contemporary social work systems, transforming the ways in which public services are designed, delivered, and evaluated. Their integration into social work practice, particularly through artificial intelligence (AI)-driven decision support systems, big data analytics, and algorithmic assessment tools, has enabled faster, more standardised, and ostensibly objective interventions in areas such as child protection, family support, housing policies, and social work welfare distribution. While these technological tools have increased administrative efficiency, improved resource allocation, and enhanced risk assessment capacities, they have simultaneously raised concerns regarding fairness, transparency, and the potential reproduction of structural inequalities. Empirical studies from the United States, the Netherlands, and the United Kingdom have shown that algorithmic decision-making can systematically disadvantage marginalised groups, including low-income families, ethnic minorities, disabled individuals, and migrant populations, by classifying them into higher-risk categories based on historical datasets that carry inherent societal biases. For instance, the Allegheny Family Screening Tool in the U.S. disproportionately flagged disabled or minority parents as high-risk, leading to federal scrutiny, while the Dutch SyRI system and certain U.K. digital welfare platforms faced legal challenges for discriminatory outcomes against migrants and low-income individuals.
These findings underscore that digital systems, although designed to be neutral, often embed normative assumptions and preexisting social biases, which can result in unintended exclusionary effects and reinforce social stratification. Beyond the risk of direct discrimination, digital exclusion encompasses a broader spectrum of structural barriers, including inadequate access to devices and the internet, limited digital literacy, insufficient algorithmic literacy, and lack of data privacy awareness. Such exclusion can lead to diminished participation in civic and social activities, erosion of autonomy, and reduced psychological well-being, particularly among socioeconomically disadvantaged groups. Importantly, digital literacy is not merely a technical skill but a form of cultural and cognitive capital that enables individuals to critically evaluate information, assert their rights, and engage meaningfully in digital spaces. Socioeconomic status, age, gender, disability, ethnicity, and migration background are all significant determinants of digital engagement, demonstrating that digital exclusion is deeply intertwined with existing social inequalities. In countries such as Turkey, where AI integration in social work is still limited and often confined to pilot projects, the slow pace of digital adoption highlights the need for coordinated strategies that combine technological investment with institutional capacity-building and ethical oversight. Conversely, countries that have proactively integrated digital technologies into social work have illustrated both the potential benefits and risks: faster identification of service needs, more precise allocation of resources, and improved decision-making, alongside challenges related to algorithmic bias, reduced transparency, and trust erosion among service users.
Mitigating these risks requires a multi-dimensional approach that goes beyond technical solutions. Participatory system design, inclusive policymaking, and human-centred technological deployment are critical to ensuring that social work remains equitable, accountable, and aligned with human rights principles. Moreover, algorithmic systems must be evaluated not only for efficiency and accuracy but also for their social justice implications, particularly regarding the visibility and inclusion of disadvantaged populations. The development of comprehensive strategies to address digital inequities should incorporate educational programmes tailored to users’ capacities, user-friendly system interfaces, community-based support networks, and transparent governance mechanisms. Ethical considerations, legal safeguards, and accountability frameworks are essential components of this approach, as they help prevent the reproduction of systemic inequalities and reinforce the legitimacy of public services. Digital exclusion should therefore be recognised as a multifaceted social problem, with consequences extending beyond technical or operational dimensions to encompass psychological, cultural, and sociopolitical impacts. By framing access to digital technologies and literacy as a fundamental right and a prerequisite for meaningful participation in contemporary society, social work providers can ensure that digital transformation serves as a tool for inclusion rather than marginalisation. The evidence presented in this study highlights that, without careful design and policy intervention, AI-driven and algorithmic social work systems risk entrenching existing disparities, creating new forms of exclusion, and undermining the foundational principles of social work practice. In conclusion, bridging the digital divide requires a holistic, inclusive, and rights-based approach, combining technological innovation with ethical governance, participatory engagement, and structural interventions that address both access and capability gaps. By integrating these elements into social work planning and delivery, policymakers and practitioners can harness the transformative potential of digital technologies while safeguarding equity, justice, and human dignity across diverse populations.
Artificial Intelligence, Social Work, Digital Access, Technology
Dijital teknolojiler, çağdaş sosyal hizmet sistemlerinin merkezî bir bileşeni hâline gelmiş; kamu hizmetlerinin tasarlanma, sunulma ve değerlendirilme biçimlerini köklü biçimde dönüştürmüştür. Bu teknolojilerin sosyal hizmet uygulamalarına—özellikle yapay zekâ (YZ) temelli karar destek sistemleri, büyük veri analitiği ve algoritmik değerlendirme araçları aracılığıyla—entegrasyonu; çocuk koruma, aile desteği, konut politikaları ve sosyal yardım dağıtımı gibi alanlarda daha hızlı, daha standartlaştırılmış ve görünürde daha nesnel müdahaleleri mümkün kılmıştır. Söz konusu teknolojik araçlar idari verimliliği artırmış, kaynak tahsisini iyileştirmiş ve risk değerlendirme kapasitelerini güçlendirmiş olmakla birlikte; eşzamanlı olarak adalet, şeffaflık ve yapısal eşitsizliklerin yeniden üretilmesi olasılığına ilişkin ciddi kaygıları da beraberinde getirmiştir. Amerika Birleşik Devletleri, Hollanda ve Birleşik Krallık’tan elde edilen ampirik bulgular, algoritmik karar verme süreçlerinin, içkin toplumsal önyargılar barındıran tarihsel veri kümelerine dayanarak düşük gelirli aileler, etnik azınlıklar, engelli bireyler ve göçmen topluluklar dâhil olmak üzere marjinalleştirilmiş grupları sistematik biçimde daha yüksek risk kategorilerine yerleştirebildiğini göstermektedir. Örneğin, ABD’de Allegheny Aile Tarama Aracı engelli ya da azınlık kökenli ebeveynleri orantısız biçimde yüksek riskli olarak işaretlemiş ve bu durum federal düzeyde incelemelere yol açmıştır; Hollanda’daki SyRI sistemi ile Birleşik Krallık’taki bazı dijital refah platformları ise göçmenler ve düşük gelirli bireyler aleyhine ayrımcı sonuçlar doğurduğu gerekçesiyle hukuki itirazlarla karşılaşmıştır.
Bu bulgular, dijital sistemlerin her ne kadar tarafsız olarak tasarlansalar da çoğu zaman normatif varsayımları ve önceden var olan toplumsal önyargıları bünyelerinde barındırdığını; bunun da istenmeyen dışlayıcı etkilere yol açarak toplumsal tabakalaşmayı pekiştirebildiğini ortaya koymaktadır. Doğrudan ayrımcılık riskinin ötesinde, dijital dışlanma; cihazlara ve internete yetersiz erişim, sınırlı dijital okuryazarlık, algoritmik okuryazarlık eksikliği ve veri gizliliğine ilişkin düşük farkındalık gibi daha geniş bir yapısal engeller kümesini kapsamaktadır. Bu tür bir dışlanma, bireylerin yurttaşlık ve toplumsal faaliyetlere katılımını azaltabilmekte, özerkliği zayıflatabilmekte ve özellikle sosyoekonomik açıdan dezavantajlı gruplar arasında psikolojik iyilik hâlini olumsuz etkileyebilmektedir. Önemle vurgulanmalıdır ki dijital okuryazarlık yalnızca teknik bir beceri değil; bireylerin bilgiyi eleştirel biçimde değerlendirmelerini, haklarını savunmalarını ve dijital alanlarda anlamlı biçimde yer almalarını sağlayan kültürel ve bilişsel bir sermaye türüdür. Sosyoekonomik statü, yaş, cinsiyet, engellilik, etnik köken ve göçmenlik geçmişi, dijital katılımın temel belirleyicileri arasında yer almakta; bu durum dijital dışlanmanın mevcut toplumsal eşitsizliklerle derin bir biçimde iç içe olduğunu göstermektedir. Türkiye gibi sosyal hizmetlerde yapay zekâ entegrasyonunun hâlen sınırlı olduğu ve çoğu zaman pilot projelerle kısıtlandığı ülkelerde, dijital benimsemenin yavaş seyri; teknolojik yatırımlarla birlikte kurumsal kapasite geliştirme ve etik yönetişimi birleştiren eşgüdümlü stratejilere duyulan ihtiyacı ortaya koymaktadır. Buna karşılık, dijital teknolojileri sosyal hizmetlere proaktif biçimde entegre eden ülkeler hem potansiyel yararları hem de riskleri sergilemektedir: hizmet gereksinimlerinin daha hızlı tespiti, kaynakların daha isabetli tahsisi ve karar verme süreçlerinin iyileştirilmesi gibi kazanımların yanında; algoritmik önyargı, şeffaflığın azalması ve hizmet kullanıcıları nezdinde güvenin aşınması gibi sorunlar da gündeme gelmektedir.
Bu risklerin azaltılması, salt teknik çözümlerin ötesine geçen çok boyutlu bir yaklaşımı gerektirmektedir. Katılımcı sistem tasarımı, kapsayıcı politika yapımı ve insan merkezli teknolojik uygulamalar; sosyal hizmetlerin adil, hesap verebilir ve insan hakları ilkeleriyle uyumlu kalmasını sağlamak bakımından kritik öneme sahiptir. Ayrıca algoritmik sistemler, yalnızca etkinlik ve doğruluk ölçütleriyle değil; özellikle dezavantajlı nüfusların görünürlüğü ve kapsanması bağlamında sosyal adalet üzerindeki etkileri açısından da değerlendirilmelidir. Dijital eşitsizliklerle mücadeleye yönelik kapsamlı stratejiler; kullanıcıların kapasitelerine uygun eğitim programlarını, kullanıcı dostu arayüzleri, topluluk temelli destek ağlarını ve şeffaf yönetişim mekanizmalarını içermelidir. Etik ilkeler, hukuki güvenceler ve hesap verebilirlik çerçeveleri bu yaklaşımın vazgeçilmez bileşenleridir; zira bunlar sistemik eşitsizliklerin yeniden üretilmesini önlemeye ve kamu hizmetlerinin meşruiyetini güçlendirmeye katkı sağlar. Dolayısıyla dijital dışlanma, etkileri teknik ya da operasyonel boyutların ötesine geçerek psikolojik, kültürel ve sosyo-politik alanlara uzanan çok katmanlı bir toplumsal sorun olarak ele alınmalıdır. Dijital teknolojilere erişim ve dijital okuryazarlığın temel bir hak ve çağdaş topluma anlamlı katılımın ön koşulu olarak çerçevelenmesi, sosyal hizmet sağlayıcılarının dijital dönüşümü dışlayıcı değil kapsayıcı bir araç olarak konumlandırmalarına imkân tanır. Bu çalışmada sunulan kanıtlar, dikkatli tasarım ve etkili politika müdahaleleri olmaksızın YZ temelli ve algoritmik sosyal hizmet sistemlerinin mevcut eşitsizlikleri pekiştirebileceğini, yeni dışlanma biçimleri üretebileceğini ve sosyal hizmet uygulamasının kurucu ilkelerini zayıflatabileceğini göstermektedir. Sonuç olarak, dijital uçurumun kapatılması; teknolojik yeniliği etik yönetişim, katılımcı angajman ve hem erişim hem de yetkinlik açıklarını hedefleyen yapısal müdahalelerle birleştiren bütüncül, kapsayıcı ve hak temelli bir yaklaşımı zorunlu kılmaktadır. Bu unsurların sosyal hizmetlerin planlanması ve sunumuna entegre edilmesiyle, politika yapıcılar ve uygulayıcılar dijital teknolojilerin dönüştürücü potansiyelinden yararlanırken eşitliği, adaleti ve insan onurunu farklı toplumsal kesimler arasında güvence altına alabilirler.
Yapay zekâ, sosyal hizmet, dijital erişim, teknoloji
أصبحت التقنيات الرقمية محورًا أساسيًا في أنظمة الخدمة الاجتماعية المعاصرة، إذ أسهمت في تحويل طرائق تصميم الخدمات العامة وتقديمها وتقييمها. وقد أتاح إدماج هذه التقنيات في الممارسة المهنية للخدمة الاجتماعية—ولا سيما من خلال أنظمة دعم القرار القائمة على الذكاء الاصطناعي، وتحليلات البيانات الضخمة، وأدوات التقييم الخوارزمي—تنفيذ تدخلات أسرع وأكثر توحيدًا، يُفترض فيها الموضوعية، في مجالات مثل حماية الطفل، ودعم الأسرة، وسياسات الإسكان، وتوزيع إعانات الرعاية الاجتماعية. وعلى الرغم من أن هذه الأدوات التقنية حسّنت الكفاءة الإدارية، ورفعت جودة تخصيص الموارد، وعزّزت قدرات تقييم المخاطر، فإنها أثارت في الوقت نفسه مخاوف جدّية تتعلق بالعدالة والشفافية واحتمالات إعادة إنتاج اللامساواة البنيوية. فقد بيّنت دراسات تجريبية من الولايات المتحدة وهولندا والمملكة المتحدة أن اتخاذ القرار الخوارزمي قد يُلحق ضررًا منهجيًا بالفئات المُهمَّشة—بما في ذلك الأسر منخفضة الدخل، والأقليات العرقية، والأشخاص ذوو الإعاقة، والمهاجرون—وذلك عبر تصنيفهم ضمن فئات أعلى خطورة استنادًا إلى مجموعات بيانات تاريخية تحمل تحيزات مجتمعية كامنة. فعلى سبيل المثال، أظهرت أداة فرز الأسر في مقاطعة أليغيني بالولايات المتحدة ميلًا غير متناسب إلى تصنيف الآباء من ذوي الإعاقة أو المنتمين إلى الأقليات بوصفهم ذوي مخاطر مرتفعة، الأمر الذي استدعى تدقيقًا فدراليًا، في حين واجه نظام SyRI الهولندي وبعض منصات الرفاه الرقمي في المملكة المتحدة طعونًا قانونية بسبب نتائج تمييزية ضد المهاجرين وذوي الدخل المنخفض.
وتؤكد هذه النتائج أن الأنظمة الرقمية، على الرغم من تصميمها بوصفها محايدة، كثيرًا ما تتضمن افتراضات معيارية وتحيزات اجتماعية سابقة، ما قد يفضي إلى آثار إقصائية غير مقصودة ويعزز التراتب الاجتماعي. وإلى جانب مخاطر التمييز المباشر، يشمل الإقصاء الرقمي طيفًا أوسع من العوائق البنيوية، مثل ضعف الوصول إلى الأجهزة والإنترنت، وتدنّي الكفايات الرقمية، وقصور الإلمام بالخوارزميات، ومحدودية الوعي بخصوصية البيانات. ويمكن أن يؤدي هذا الإقصاء إلى تراجع المشاركة في الأنشطة المدنية والاجتماعية، وتآكل الاستقلالية، وانخفاض الرفاه النفسي، ولا سيما لدى الفئات المحرومة اجتماعيًا واقتصاديًا. ومن المهم التأكيد أن الثقافة الرقمية ليست مجرد مهارة تقنية، بل هي شكل من رأس المال الثقافي والمعرفي الذي يمكّن الأفراد من التقييم النقدي للمعلومات، والدفاع عن حقوقهم، والانخراط الفاعل في الفضاءات الرقمية. كما تُعد الحالة الاجتماعية-الاقتصادية، والعمر، والنوع الاجتماعي، والإعاقة، والانتماء العرقي، وخلفية الهجرة محدداتٍ أساسية للانخراط الرقمي، بما يبرهن على أن الإقصاء الرقمي متشابك بعمق مع أشكال اللامساواة الاجتماعية القائمة. وفي دول مثل تركيا، حيث لا يزال إدماج الذكاء الاصطناعي في الخدمة الاجتماعية محدودًا وغالبًا ما يقتصر على مشاريع تجريبية، تُبرز وتيرة التبنّي البطيئة الحاجة إلى استراتيجيات منسّقة تجمع بين الاستثمار التقني وبناء القدرات المؤسسية والحوكمة الأخلاقية. وعلى النقيض، أظهرت الدول التي بادرت إلى إدماج التقنيات الرقمية في الخدمة الاجتماعية إمكاناتٍ ومخاطرَ في آنٍ واحد: تسريع تحديد احتياجات المستفيدين، ودقة أكبر في تخصيص الموارد، وتحسين جودة اتخاذ القرار، مقابل تحديات التحيز الخوارزمي وتراجع الشفافية وتآكل الثقة لدى متلقي الخدمات.
ويتطلب الحدّ من هذه المخاطر مقاربةً متعددة الأبعاد تتجاوز الحلول التقنية البحتة. ويُعد التصميم التشاركي للأنظمة، وصنع السياسات الشاملة، ونشر التقنيات المتمحورة حول الإنسان عناصرَ حاسمة لضمان بقاء الخدمة الاجتماعية منصفة وخاضعة للمساءلة ومتسقة مع مبادئ حقوق الإنسان. كما ينبغي تقييم الأنظمة الخوارزمية ليس فقط من حيث الكفاءة والدقة، بل أيضًا من حيث آثارها على العدالة الاجتماعية، ولا سيما فيما يتعلق بمرئية الفئات المحرومة وإدماجها. وينبغي أن تتضمن الاستراتيجيات الشاملة لمعالجة اللامساواة الرقمية برامجَ تعليمية مُلائمة لقدرات المستخدمين، وواجهاتٍ سهلة الاستخدام، وشبكات دعم مجتمعية، وآليات حوكمة شفافة. وتشكل الاعتبارات الأخلاقية، والضمانات القانونية، وأطر المساءلة مكوناتٍ أساسية لهذه المقاربة، إذ تسهم في منع إعادة إنتاج اللامساواة النظامية وتعزيز شرعية الخدمات العامة. وعليه، ينبغي الاعتراف بالإقصاء الرقمي بوصفه مشكلةً اجتماعية متعددة الأبعاد، تتجاوز آثارُها الجوانبَ التقنية أو التشغيلية لتشمل أبعادًا نفسية وثقافية وسياسية-اجتماعية. ومن خلال تأطير الوصول إلى التقنيات الرقمية ومهاراتها بوصفهما حقًا أساسيًا وشرطًا مسبقًا للمشاركة الفاعلة في المجتمع المعاصر، يمكن لمقدّمي الخدمة الاجتماعية ضمان أن يكون التحول الرقمي أداةً للإدماج لا للتهميش. وتُظهر الأدلة المقدَّمة في هذه الدراسة أنه من دون تصميمٍ دقيق وتدخلاتٍ سياساتية واعية، قد تُرسِّخ أنظمة الخدمة الاجتماعية القائمة على الذكاء الاصطناعي والخوارزميات الفوارقَ القائمة، وتُنشئ أشكالًا جديدة من الإقصاء، وتُقوِّض المبادئ التأسيسية لممارسة الخدمة الاجتماعية. وخلاصة القول، إن ردم الفجوة الرقمية يستلزم نهجًا شموليًا وشاملًا وقائمًا على الحقوق، يجمع بين الابتكار التقني والحوكمة الأخلاقية والمشاركة التشاركية والتدخلات البنيوية التي تعالج فجوات الوصول والقدرة معًا. ومن خلال إدماج هذه العناصر في تخطيط الخدمة الاجتماعية وتنفيذها، يستطيع صانعو السياسات والممارسون تسخير الإمكانات التحويلية للتقنيات الرقمية مع صون المساواة والعدالة والكرامة الإنسانية عبر مختلف الفئات السكانية.
الذكاء الاصطناعي، الخدمة الاجتماعية، النفاذ الرقمي، التكنولوجيا
Les technologies numériques sont devenues un élément central des systèmes contemporains de travail social, transformant en profondeur les modes de conception, de prestation et d’évaluation des services publics. Leur intégration dans la pratique du travail social — notamment à travers les systèmes d’aide à la décision fondés sur l’intelligence artificielle (IA), l’analyse des mégadonnées et les outils d’évaluation algorithmique — a permis des interventions plus rapides, plus standardisées et supposément plus objectives dans des domaines tels que la protection de l’enfance, le soutien aux familles, les politiques du logement et la distribution des prestations sociales. Si ces outils technologiques ont amélioré l’efficacité administrative, optimisé l’allocation des ressources et renforcé les capacités d’évaluation des risques, ils ont simultanément suscité des préoccupations majeures en matière d’équité, de transparence et de reproduction potentielle des inégalités structurelles. Des études empiriques menées aux États-Unis, aux Pays-Bas et au Royaume-Uni ont montré que la prise de décision algorithmique peut désavantager de manière systématique des groupes marginalisés — notamment les ménages à faible revenu, les minorités ethniques, les personnes en situation de handicap et les populations migrantes — en les classant dans des catégories de risque plus élevées sur la base de jeux de données historiques porteurs de biais sociaux intrinsèques. À titre d’exemple, l’Allegheny Family Screening Tool aux États-Unis a signalé de manière disproportionnée des parents handicapés ou issus de minorités comme présentant un risque élevé, entraînant un examen fédéral, tandis que le système néerlandais SyRI et certaines plateformes britanniques de protection sociale numérique ont fait l’objet de contestations juridiques en raison de résultats discriminatoires à l’encontre des migrants et des personnes à faible revenu.
Ces constats soulignent que les systèmes numériques, bien que conçus comme neutres, intègrent souvent des présupposés normatifs et des biais sociaux préexistants, susceptibles de produire des effets d’exclusion non intentionnels et de renforcer la stratification sociale. Au-delà du risque de discrimination directe, l’exclusion numérique recouvre un ensemble plus large d’obstacles structurels, notamment l’accès insuffisant aux équipements et à Internet, un faible niveau de compétences numériques, une maîtrise limitée des logiques algorithmiques et un manque de sensibilisation à la protection des données. Une telle exclusion peut entraîner une diminution de la participation aux activités civiques et sociales, une érosion de l’autonomie et une dégradation du bien-être psychologique, en particulier chez les groupes socio-économiquement défavorisés. Il importe de souligner que la littératie numérique ne constitue pas seulement une compétence technique, mais aussi une forme de capital culturel et cognitif permettant aux individus d’évaluer de manière critique l’information, de faire valoir leurs droits et de s’engager de façon significative dans les espaces numériques. Le statut socio-économique, l’âge, le genre, le handicap, l’appartenance ethnique et le parcours migratoire sont autant de déterminants majeurs de l’engagement numérique, démontrant que l’exclusion numérique est profondément imbriquée dans les inégalités sociales existantes. Dans des pays comme la Turquie, où l’intégration de l’IA dans le travail social demeure limitée et souvent cantonnée à des projets pilotes, la lenteur de l’adoption numérique met en évidence la nécessité de stratégies coordonnées associant investissement technologique, renforcement des capacités institutionnelles et encadrement éthique. À l’inverse, les pays ayant intégré de manière proactive les technologies numériques dans le travail social illustrent à la fois les bénéfices potentiels et les risques : identification plus rapide des besoins, allocation plus précise des ressources et amélioration de la prise de décision, mais aussi défis liés aux biais algorithmiques, à la réduction de la transparence et à l’érosion de la confiance des usagers.
La réduction de ces risques requiert une approche multidimensionnelle allant au-delà des seules solutions techniques. La conception participative des systèmes, l’élaboration de politiques inclusives et le déploiement de technologies centrées sur l’humain sont essentiels pour garantir que le travail social demeure équitable, responsable et conforme aux principes des droits humains. En outre, les systèmes algorithmiques doivent être évalués non seulement au regard de leur efficacité et de leur précision, mais aussi de leurs implications en matière de justice sociale, en particulier en ce qui concerne la visibilité et l’inclusion des populations défavorisées. L’élaboration de stratégies globales visant à réduire les inégalités numériques devrait intégrer des programmes éducatifs adaptés aux capacités des usagers, des interfaces conviviales, des réseaux de soutien communautaires et des mécanismes de gouvernance transparents. Les considérations éthiques, les garanties juridiques et les cadres de responsabilité constituent des composantes indispensables de cette démarche, car ils contribuent à prévenir la reproduction des inégalités systémiques et à renforcer la légitimité des services publics. L’exclusion numérique doit ainsi être reconnue comme un problème social multidimensionnel, dont les effets dépassent les dimensions techniques ou opérationnelles pour englober des impacts psychologiques, culturels et sociopolitiques. En considérant l’accès aux technologies numériques et aux compétences associées comme un droit fondamental et une condition préalable à une participation pleine et entière à la société contemporaine, les acteurs du travail social peuvent faire en sorte que la transformation numérique soit un vecteur d’inclusion plutôt que de marginalisation. Les éléments probants présentés dans cette étude montrent que, sans une conception rigoureuse et des interventions politiques appropriées, les systèmes de travail social fondés sur l’IA et les algorithmes risquent de consolider les disparités existantes, de créer de nouvelles formes d’exclusion et de saper les principes fondamentaux de la pratique du travail social. En conclusion, la réduction de la fracture numérique exige une approche holistique, inclusive et fondée sur les droits, combinant innovation technologique, gouvernance éthique, participation citoyenne et interventions structurelles visant à combler à la fois les écarts d’accès et de capacités. En intégrant ces éléments dans la planification et la mise en œuvre du travail social, les décideurs et les praticiens peuvent exploiter le potentiel transformateur des technologies numériques tout en préservant l’équité, la justice et la dignité humaine au sein de populations diverses.
intelligence artificielle, travail social, accès numérique, technologie.
Las tecnologías digitales se han convertido en un componente central de los sistemas contemporáneos de trabajo social, transformando de manera profunda las formas en las que los servicios públicos se diseñan, prestados y evaluados. Su integración en la práctica del trabajo social -en particular mediante sistemas de apoyo a la toma de decisiones basados en la inteligencia artificial (IA), el análisis de macrodatos y las herramientas de evaluación algorítmica- ha permitido intervenciones más expeditivas, más estandarizadas y supuestamente más objetivas en ámbitos como la protección de la infancia, el apoyo a las familias, las políticas de vivienda y la distribución de prestaciones de bienestar social. Aunque estas herramientas tecnológicas han aumentado la eficiencia en la administración, mejorado la distribución de recursos y reforzado la evaluación de riesgos, también han creado preocupaciones significativas sobre la equidad, la transparencia y el riesgo de repetir desigualdades ya existentes. Estudios empíricos realizados en Estados Unidos, los Países Bajos y el Reino Unido han demostrado que la toma de decisiones algorítmica puede perjudicar de forma sistemática a grupos marginados. Esto incluye las familias de bajos ingresos, las minorías étnicas, las personas con discapacidad y las poblaciones migrantes. Esto ocurre al clasificarlos en categorías de mayor riesgo basadas en conjuntos de datos históricos que incorporan sesgos sociales inherentes. Por ejemplo, la herramienta Allegheny Family Screening Tool en Estados Unidos señaló de manera desproporcionada a padres con discapacidad o pertenecientes a minorías como de alto riesgo. Esto dio lugar a un escrutinio federal. Mientras tanto, el sistema neerlandés SyRI y determinadas plataformas digitales de bienestar en el Reino Unido enfrentaron impugnaciones legales debido a resultados discriminatorios contra migrantes y personas de bajos ingresos.
Estos hallazgos muestran que los sistemas digitales, aunque se crean para ser neutrales, a menudo incluyen suposiciones y sesgos sociales que ya existen, lo que puede causar exclusiones no intencionadas y aumentar la desigualdad social. Más allá del riesgo de discriminación directa, la exclusión digital abarca un conjunto más amplio de barreras estructurales, entre ellas el acceso insuficiente a dispositivos e Internet, niveles limitados de competencias digitales, escasa alfabetización algorítmica y una débil conciencia sobre la privacidad de los datos. Dicha exclusión puede provocar una menor participación en actividades cívicas y sociales, la erosión de la autonomía y un deterioro del bienestar psicológico, especialmente entre los grupos socioeconómicamente desfavorecidos. Es importante subrayar que la alfabetización digital no constituye únicamente una habilidad técnica, sino una forma de capital cultural y cognitivo que permite a las personas evaluar críticamente la información, reivindicar sus derechos y participar de manera significativa en los espacios digitales. El estatus socioeconómico, la edad, el género, la discapacidad, la pertenencia étnica y el origen migratorio son determinantes clave del compromiso digital, lo que demuestra que la exclusión digital está profundamente entrelazada con las desigualdades sociales existentes. En países como Turquía, donde la integración de la IA en el trabajo social se sigue limitando y a menudo se restringe a proyectos piloto, el lento ritmo de adopción digital pone de manifiesto la necesidad de estrategias coordinadas que combinen la inversión tecnológica con el fortalecimiento de las capacidades institucionales y la supervisión ética. Por el contrario, los países que han integrado de manera proactiva las tecnologías digitales en el trabajo social han mostrado tanto los beneficios potenciales como los riesgos. Estos incluyen una identificación más rápida de las necesidades, una asignación más precisa de los recursos y una mejora en la toma de decisiones. Sin embargo, hay desafíos relacionados con los sesgos algorítmicos, la reducción de la transparencia y la erosión de la confianza de los usuarios de los servicios.
La mitigación de estos riesgos requiere un enfoque multidimensional que vaya más allá de las soluciones puramente técnicas. El diseño colaborativo de los sistemas, la creación de políticas inclusivas y el uso de tecnologías centradas en las personas son aspectos clave para asegurar que el trabajo social sea justo, responsable y en línea con los principios de los derechos humanos. Además, los sistemas algorítmicos deben ser evaluados no solo por su eficiencia y precisión, sino también por su impacto en la justicia social, especialmente en lo que se refiere a la visibilidad y la inclusión de grupos desfavorecidos. El desarrollo de estrategias integrales para abordar las desigualdades digitales debería incorporar programas educativos adaptados a las capacidades de los usuarios, interfaces de sistema intuitivas, redes de apoyo comunitario y mecanismos de gobernanza transparentes. Las cuestiones éticas, las protecciones legales y las estructuras de responsabilidad son partes clave de este enfoque, ya que ayudan a evitar que se repitan las desigualdades y apoyan la credibilidad de los servicios públicos. La exclusión digital debe verse como un problema social complejo, que afecta no solo aspectos técnicos u operativos, sino que también tiene consecuencias psicológicas, culturales y sociopolíticas. Al concebir el acceso a las tecnologías digitales y a la alfabetización correspondiente como un derecho fundamental y un requisito previo para una participación significativa en la sociedad contemporánea, los proveedores de trabajo social pueden asegurar que la transformación digital funcione como una herramienta de inclusión y no de marginación. La evidencia presentada en este estudio pone de manifiesto que, sin un diseño cuidadoso y una intervención política adecuada, los sistemas de trabajo social basados en la IA y en algoritmos corren el riesgo de afianzar las disparidades existentes. Además, pueden crear nuevas formas de exclusión y socavar los principios fundamentales de la práctica del trabajo social. En resumen, reducir la brecha digital requiere un enfoque amplio, inclusivo y basado en derechos. Este enfoque debe unir la innovación tecnológica con una buena gobernanza, la participación de la ciudadanía y acciones estructurales que aborden las diferencias en acceso y habilidades. Al incluir estos elementos en la planificación y ejecución del trabajo social, los encargados de crear políticas y los profesionales pueden aprovechar el poder transformador de las tecnologías digitales, mientras protegen la equidad, la justicia y la dignidad humana en diversas poblaciones.
inteligencia artificial, trabajo social, acceso digital, tecnología.
数字技术已成为当代社会工作体系中的核心要素,深刻改变了公共服务的设计、提供与评估方式。数字技术在社会工作实践中的融入,尤其是通过基于人工智能(AI)的决策支持系统、大数据分析以及算法评估工具,使儿童保护、家庭支持、住房政策和社会福利分配等领域的干预措施更加迅速、标准化,并在表面上呈现出更高的客观性。尽管这些技术工具提升了行政效率、优化了资源配置并增强了风险评估能力,但同时也引发了关于公平性、透明度以及结构性不平等可能被再生产的严峻关切。来自美国、荷兰和英国的实证研究表明,算法化决策可能基于内含社会偏见的历史数据,将低收入家庭、少数族裔、残障人士和移民群体系统性地归入更高风险类别,从而对这些边缘化群体造成不利影响。例如,美国的阿勒格尼家庭筛查工具(Allegheny Family Screening Tool)在风险识别中对残障或少数族裔父母的标记比例明显偏高,引发了联邦层面的审查;而荷兰的 SyRI 系统以及英国部分数字化福利平台,也因对移民和低收入人群产生歧视性结果而面临法律挑战。
这些发现表明,尽管数字系统在设计之初被视为中立工具,但其往往内嵌规范性假设和既有社会偏见,可能导致非预期的排斥效应,并进一步加剧社会分层。除直接歧视风险之外,数字排斥还涵盖更为广泛的结构性障碍,包括对设备和互联网的可及性不足、数字技能水平有限、算法素养匮乏以及对数据隐私保护的认知不足。这种排斥可能削弱个体参与公共和社会活动的能力,侵蚀其自主性,并对心理福祉造成负面影响,尤以社会经济地位较低的群体为甚。需要强调的是,数字素养不仅是一种技术能力,更是一种文化与认知资本,使个体能够对信息进行批判性判断、主张自身权利并有意义地参与数字空间。社会经济地位、年龄、性别、残障状况、族裔归属及移民背景,均是影响数字参与的重要决定因素,表明数字排斥与既有社会不平等之间存在深刻的结构性关联。在土耳其等国家,人工智能在社会工作领域的应用仍较为有限,多集中于试点项目,数字化推进速度相对缓慢,这凸显了在技术投入之外同步加强制度能力建设与伦理治理的必要性。相较之下,那些积极将数字技术融入社会工作的国家既展示了其潜在优势,也暴露了相应风险:一方面能够更快速地识别服务需求、更精准地配置资源并提升决策质量;另一方面也面临算法偏见、透明度下降以及服务对象信任度受损等挑战。
应对上述风险需要超越单纯技术解决方案的多维度综合路径。通过参与式系统设计、包容性政策制定以及以人为本的技术部署,方能确保社会工作实践保持公平性、可问责性,并与人权原则相一致。此外,对算法系统的评估不应仅限于效率和准确性,还应关注其在社会正义层面的影响,尤其是对弱势群体可见性与包容性的作用。缩小数字不平等差距的整体战略,应当纳入与使用者能力相匹配的教育项目、友好的系统界面、社区支持网络以及透明的治理机制。伦理考量、法律保障与问责框架是该路径不可或缺的组成部分,有助于防止系统性不平等的再生产,并增强公共服务的正当性。因此,数字排斥应被视为一种多层面的社会问题,其影响不仅限于技术或操作层面,还延伸至心理、文化与社会政治维度。通过将数字技术的可及性与数字素养界定为一项基本权利和参与当代社会的前提条件,社会工作机构能够确保数字化转型成为促进社会包容的工具,而非加剧边缘化的机制。本研究所呈现的证据表明,若缺乏审慎的系统设计与有效的政策干预,基于人工智能和算法的社会工作体系可能固化既有差距、制造新的排斥形式,并削弱社会工作实践的基本原则。综上所述,弥合数字鸿沟需要一种整体性、包容性且以权利为导向的方法,将技术创新与伦理治理、参与式协商以及针对可及性与能力差距的结构性干预相结合。通过在社会工作规划与实施中系统性地整合上述要素,政策制定者与实践者方能在保障公平、正义与人类尊严的前提下,充分释放数字技术的变革潜力,惠及多元社会群体。
人工智能;社会工作;数字可及性;技术
Цифровые технологии стали ключевым элементом современных систем социальной работы, существенно трансформируя способы проектирования, предоставления и оценки государственных услуг. Их интеграция в практику социальной работы — прежде всего через системы поддержки принятия решений на основе искусственного интеллекта (ИИ), аналитику больших данных и алгоритмические инструменты оценки — обеспечила более быстрые, стандартизированные и, на первый взгляд, более объективные вмешательства в таких сферах, как защита детства, поддержка семьи, жилищная политика и распределение социальных пособий. Несмотря на то что данные технологические инструменты повысили административную эффективность, улучшили распределение ресурсов и расширили возможности оценки рисков, они одновременно породили серьёзные опасения, связанные с обеспечением справедливости, прозрачности и возможным воспроизводством структурного неравенства. Эмпирические исследования, проведённые в Соединённых Штатах Америки, Нидерландах и Соединённом Королевстве, показали, что алгоритмическое принятие решений может систематически ставить в неблагоприятное положение маргинализированные группы — включая семьи с низким уровнем дохода, этнические меньшинства, людей с инвалидностью и мигрантов, — относя их к категориям повышенного риска на основе исторических наборов данных, содержащих присущие обществу предвзятости. Так, например, инструмент Allegheny Family Screening Tool в США непропорционально часто относил родителей с инвалидностью или представителей меньшинств к группе высокого риска, что привело к федеральной проверке, тогда как нидерландская система SyRI и ряд британских цифровых платформ социального обеспечения столкнулись с судебными разбирательствами из-за дискриминационных последствий для мигрантов и лиц с низким доходом.
Эти результаты подчёркивают, что цифровые системы, хотя и разрабатываются как нейтральные, нередко включают нормативные предпосылки и ранее существовавшие социальные предубеждения, что может приводить к непреднамеренным исключающим эффектам и усилению социальной стратификации. Помимо риска прямой дискриминации, цифровое исключение охватывает более широкий спектр структурных барьеров, включая недостаточный доступ к устройствам и интернету, ограниченный уровень цифровой грамотности, дефицит алгоритмической грамотности и низкую осведомлённость о защите персональных данных. Такое исключение может приводить к снижению участия в гражданской и социальной жизни, эрозии автономии и ухудшению психологического благополучия, особенно среди социально и экономически уязвимых групп. Принципиально важно отметить, что цифровая грамотность является не просто техническим навыком, а формой культурного и когнитивного капитала, позволяющего людям критически оценивать информацию, отстаивать свои права и полноценно участвовать в цифровых пространствах. Социально-экономический статус, возраст, гендер, инвалидность, этническая принадлежность и миграционное происхождение выступают ключевыми детерминантами цифрового участия, что свидетельствует о глубокой взаимосвязанности цифрового исключения с существующими социальными неравенствами. В таких странах, как Турция, где интеграция ИИ в социальную работу всё ещё ограничена и часто сводится к пилотным проектам, медленные темпы цифровой адаптации подчёркивают необходимость согласованных стратегий, сочетающих технологические инвестиции с наращиванием институционального потенциала и этическим надзором. В то же время страны, которые активно внедряют цифровые технологии в социальную работу, демонстрируют как потенциальные выгоды, так и риски: более быстрое выявление потребностей, более точное распределение ресурсов и улучшение качества принятия решений — наряду с проблемами алгоритмической предвзятости, снижения прозрачности и подрыва доверия со стороны получателей услуг.
Снижение этих рисков требует многомерного подхода, выходящего за рамки исключительно технических решений. Участие заинтересованных сторон в проектировании систем, инклюзивная политика и ориентированное на человека внедрение технологий имеют решающее значение для того, чтобы социальная работа оставалась справедливой, подотчётной и соответствовала принципам прав человека. Кроме того, алгоритмические системы должны оцениваться не только с точки зрения эффективности и точности, но и с учётом их последствий для социальной справедливости, особенно в аспекте видимости и включённости уязвимых групп. Разработка комплексных стратегий по преодолению цифрового неравенства должна включать образовательные программы, адаптированные к возможностям пользователей, удобные интерфейсы, сети поддержки на уровне сообществ и прозрачные механизмы управления. Этические соображения, правовые гарантии и рамки подотчётности являются неотъемлемыми компонентами данного подхода, поскольку они позволяют предотвращать воспроизводство системного неравенства и укреплять легитимность государственных услуг. Таким образом, цифровое исключение следует рассматривать как многогранную социальную проблему, последствия которой выходят за пределы технических или операционных измерений и затрагивают психологические, культурные и социально-политические аспекты. Рассматривая доступ к цифровым технологиям и цифровую грамотность как фундаментальное право и необходимое условие осмысленного участия в современном обществе, поставщики услуг социальной работы могут обеспечить, чтобы цифровая трансформация служила инструментом включения, а не маргинализации. Представленные в данном исследовании эмпирические данные свидетельствуют о том, что без продуманного проектирования и целенаправленных политических вмешательств системы социальной работы, основанные на ИИ и алгоритмах, рискуют закрепить существующие различия, породить новые формы исключения и подорвать базовые принципы социальной работы. В заключение следует отметить, что преодоление цифрового разрыва требует целостного, инклюзивного и основанного на правах человека подхода, объединяющего технологические инновации с этическим управлением, участием заинтересованных сторон и структурными мерами, направленными на устранение разрывов как в доступе, так и в возможностях. Интегрируя эти элементы в планирование и реализацию социальной работы, политики и практики смогут использовать трансформационный потенциал цифровых технологий, одновременно обеспечивая равенство, социальную справедливость и человеческое достоинство для различных групп населения.
डिजिटल प्रौद्योगिकियाँ समकालीन सामाजिक कार्य प्रणालियों का एक केंद्रीय घटक बन चुकी हैं और उन्होंने सार्वजनिक सेवाओं की रूपरेखा, वितरण तथा मूल्यांकन की प्रक्रियाओं को मूल रूप से रूपांतरित किया है। सामाजिक कार्य की व्यावहारिक प्रक्रियाओं में इन प्रौद्योगिकियों का समावेशन—विशेष रूप से कृत्रिम बुद्धिमत्ता (Artificial Intelligence–AI) आधारित निर्णय-सहायता प्रणालियों, बिग डेटा विश्लेषण तथा एल्गोरिदमिक मूल्यांकन उपकरणों के माध्यम से—बाल संरक्षण, पारिवारिक सहायता, आवास नीतियों और सामाजिक कल्याण वितरण जैसे क्षेत्रों में अधिक तीव्र, अधिक मानकीकृत और प्रतीततः अधिक वस्तुनिष्ठ हस्तक्षेपों को संभव बनाता है। यद्यपि इन तकनीकी साधनों ने प्रशासनिक दक्षता बढ़ाई है, संसाधनों के आवंटन में सुधार किया है और जोखिम-मूल्यांकन क्षमताओं को सुदृढ़ किया है, फिर भी इनके साथ-साथ न्यायसंगतता, पारदर्शिता तथा संरचनात्मक असमानताओं के पुनरुत्पादन से संबंधित गंभीर चिंताएँ भी उत्पन्न हुई हैं। संयुक्त राज्य अमेरिका, नीदरलैंड और यूनाइटेड किंगडम में किए गए अनुभवजन्य अध्ययनों से यह स्पष्ट हुआ है कि एल्गोरिदमिक निर्णय-निर्माण ऐतिहासिक डेटा-समुच्चयों पर आधारित होकर—जिनमें अंतर्निहित सामाजिक पूर्वाग्रह निहित होते हैं—निम्न-आय परिवारों, जातीय अल्पसंख्यकों, दिव्यांग व्यक्तियों तथा प्रवासी समुदायों जैसे हाशिये पर स्थित समूहों को व्यवस्थित रूप से उच्च-जोखिम श्रेणियों में वर्गीकृत कर सकता है। उदाहरणस्वरूप, संयुक्त राज्य अमेरिका में Allegheny Family Screening Tool ने दिव्यांग अथवा अल्पसंख्यक पृष्ठभूमि वाले अभिभावकों को अनुपातहीन रूप से उच्च-जोखिम के रूप में चिह्नित किया, जिसके परिणामस्वरूप संघीय स्तर पर इसकी जाँच हुई; वहीं नीदरलैंड की SyRI प्रणाली तथा यूनाइटेड किंगडम की कुछ डिजिटल कल्याण मंचों को प्रवासियों और निम्न-आय व्यक्तियों के विरुद्ध भेदभावपूर्ण परिणामों के कारण कानूनी चुनौतियों का सामना करना पड़ा।
ये निष्कर्ष इस तथ्य को रेखांकित करते हैं कि डिजिटल प्रणालियाँ, यद्यपि तटस्थ मानी जाती हैं, प्रायः मानकात्मक धारणाओं और पूर्ववर्ती सामाजिक पूर्वाग्रहों को अपने भीतर समाहित करती हैं, जिससे अनपेक्षित बहिष्करण प्रभाव उत्पन्न हो सकते हैं और सामाजिक स्तरीकरण को बल मिल सकता है। प्रत्यक्ष भेदभाव के जोखिम से परे, डिजिटल बहिष्करण में अनेक संरचनात्मक बाधाएँ सम्मिलित हैं, जैसे उपकरणों और इंटरनेट तक अपर्याप्त पहुँच, सीमित डिजिटल साक्षरता, एल्गोरिदमिक साक्षरता का अभाव तथा डेटा गोपनीयता के प्रति अपर्याप्त जागरूकता। इस प्रकार का बहिष्करण नागरिक एवं सामाजिक गतिविधियों में सहभागिता को कम कर सकता है, स्वायत्तता को क्षीण कर सकता है और विशेष रूप से सामाजिक-आर्थिक रूप से वंचित समूहों में मनोवैज्ञानिक कल्याण को प्रभावित कर सकता है। यह विशेष रूप से उल्लेखनीय है कि डिजिटल साक्षरता केवल एक तकनीकी कौशल नहीं है, बल्कि यह सांस्कृतिक और संज्ञानात्मक पूँजी का एक रूप है, जो व्यक्तियों को सूचना का आलोचनात्मक मूल्यांकन करने, अपने अधिकारों की रक्षा करने और डिजिटल परिवेश में सार्थक सहभागिता करने में सक्षम बनाती है। सामाजिक-आर्थिक स्थिति, आयु, लिंग, दिव्यांगता, जातीयता और प्रवासन पृष्ठभूमि—ये सभी डिजिटल सहभागिता के महत्त्वपूर्ण निर्धारक हैं, जो यह दर्शाते हैं कि डिजिटल बहिष्करण गहराई से विद्यमान सामाजिक असमानताओं से जुड़ा हुआ है। तुर्की जैसे देशों में, जहाँ सामाजिक कार्य में कृत्रिम बुद्धिमत्ता का समावेशन अभी भी सीमित है और प्रायः प्रायोगिक परियोजनाओं तक ही सीमित रहता है, डिजिटल अंगीकरण की धीमी गति इस आवश्यकता को उजागर करती है कि तकनीकी निवेश के साथ-साथ संस्थागत क्षमता-निर्माण और नैतिक निगरानी को भी सुदृढ़ किया जाए। इसके विपरीत, जिन देशों ने सामाजिक कार्य में डिजिटल प्रौद्योगिकियों को सक्रिय रूप से अपनाया है, उन्होंने संभावित लाभों और जोखिमों—दोनों—को प्रदर्शित किया है: सेवाओं की आवश्यकताओं की शीघ्र पहचान, संसाधनों का अधिक सटीक आवंटन और निर्णय-निर्माण में सुधार, साथ ही एल्गोरिदमिक पूर्वाग्रह, पारदर्शिता में कमी और सेवा-उपयोगकर्ताओं के विश्वास के क्षरण जैसी चुनौतियाँ।
इन जोखिमों को कम करने के लिए एक बहुआयामी दृष्टिकोण की आवश्यकता है, जो केवल तकनीकी समाधानों से आगे जाता हो। सहभागितामूलक प्रणाली-डिज़ाइन, समावेशी नीति-निर्माण और मानव-केंद्रित तकनीकी परिनियोजन यह सुनिश्चित करने के लिए अनिवार्य हैं कि सामाजिक कार्य न्यायसंगत, उत्तरदायी और मानवाधिकार सिद्धांतों के अनुरूप बना रहे। इसके अतिरिक्त, एल्गोरिदमिक प्रणालियों का मूल्यांकन केवल दक्षता और शुद्धता के आधार पर ही नहीं, बल्कि सामाजिक न्याय पर उनके प्रभावों—विशेष रूप से वंचित आबादी की दृश्यता और समावेशन—के संदर्भ में भी किया जाना चाहिए। डिजिटल असमानताओं को दूर करने हेतु व्यापक रणनीतियों में उपयोगकर्ताओं की क्षमताओं के अनुरूप शैक्षिक कार्यक्रम, उपयोगकर्ता-अनुकूल इंटरफेस, समुदाय-आधारित सहायता नेटवर्क और पारदर्शी शासन-तंत्र सम्मिलित होने चाहिए। नैतिक विचार, कानूनी सुरक्षा उपाय और जवाबदेही ढाँचे इस दृष्टिकोण के अनिवार्य घटक हैं, क्योंकि वे प्रणालीगत असमानताओं के पुनरुत्पादन को रोकने और सार्वजनिक सेवाओं की वैधता को सुदृढ़ करने में सहायक होते हैं। अतः डिजिटल बहिष्करण को एक बहुआयामी सामाजिक समस्या के रूप में स्वीकार किया जाना चाहिए, जिसके प्रभाव केवल तकनीकी या परिचालन स्तर तक सीमित न रहकर मनोवैज्ञानिक, सांस्कृतिक और सामाजिक-राजनीतिक आयामों तक विस्तृत होते हैं। डिजिटल प्रौद्योगिकियों तक पहुँच और डिजिटल साक्षरता को एक मौलिक अधिकार तथा समकालीन समाज में सार्थक सहभागिता की पूर्वशर्त के रूप में परिभाषित करके, सामाजिक कार्य प्रदाता यह सुनिश्चित कर सकते हैं कि डिजिटल रूपांतरण हाशियेकरण के बजाय समावेशन का साधन बने। इस अध्ययन में प्रस्तुत साक्ष्य यह दर्शाते हैं कि सावधानीपूर्वक डिज़ाइन और उपयुक्त नीति-हस्तक्षेप के अभाव में, AI-आधारित और एल्गोरिदमिक सामाजिक कार्य प्रणालियाँ विद्यमान असमानताओं को और गहरा कर सकती हैं, बहिष्करण के नए रूप उत्पन्न कर सकती हैं और सामाजिक कार्य अभ्यास के मूलभूत सिद्धांतों को कमजोर कर सकती हैं। निष्कर्षतः, डिजिटल विभाजन को पाटने के लिए एक समग्र, समावेशी और अधिकार-आधारित दृष्टिकोण आवश्यक है, जो तकनीकी नवाचार को नैतिक शासन, सहभागितामूलक जुड़ाव और उन संरचनात्मक हस्तक्षेपों के साथ संयोजित करे जो पहुँच और क्षमता—दोनों—की खाइयों को संबोधित करते हों। इन तत्वों को सामाजिक कार्य की योजना और क्रियान्वयन में एकीकृत करके, नीति-निर्माता और व्यवहारकर्ता डिजिटल प्रौद्योगिकियों की रूपांतरणकारी क्षमता का उपयोग करते हुए विविध जनसमूहों के लिए समानता, न्याय और मानवीय गरिमा की रक्षा कर सकते हैं।
By subscribing to E-Newsletter, you can get the latest news to your e-mail.