Особое внимание к воздействию цифровых технологий, в том числе ИИ, на права человека привело к идее сформировать специальную оценку воздействия алгоритмических систем (
Algorithmic impact assessment). Алгоритмическая оценка характеризует риски для прав человека, этических и социальных последствий действия алгоритмических систем. При этом существуют различные модели такой оценки. В частности, GDPR выполняет оценку воздействия на то, как защищаются данные (Data Protection Impact Assessment), в то время как Совет Европы продвигает концепцию оценки воздействия на права человека в целом. Различия моделей алгоритмической оценки также связаны с определением субъекта, проводящего ее. В рамках оценки воздействия на защиту данных алгоритмическую оценку проводит сам оператор (контроллер) данных, в рамках оценки воздействия на права человека ― внешняя третья сторона или отдельный орган по аккредитации. Открытым пока остается вопрос об обязательности или добровольности такой оценки. Методология алгоритмической оценки должна обеспечивать реальную защиту прав человека и быть удобной для проводящих ее фирм и других организаций, чтобы не стать дополнительным бюрократическим бременем.