Ostatni pozew zbiorowy przeciwko Eightfold AI, platformie rekrutacyjnej opartej na sztucznej inteligencji, może mieć poważne konsekwencje dla pracodawców korzystających z AI przy ocenie kandydatów. Złożony 20 stycznia przez dwie osoby ubiegające się o pracę w Kalifornii, pozew zarzuca Eightfold naruszenie federalnych i stanowych przepisów o ochronie konsumentów poprzez tworzenie „ukrytych raportów kredytowych” na temat kandydatów bez spełnienia wymogów ustawowych dla agencji raportowania konsumenckiego. Dotyczy to uzyskania odpowiednich certyfikatów od pracodawców, którzy wykorzystują raporty do zatrudnienia. Chociaż pozwy dotyczące narzędzi rekrutacyjnych opartych na AI często skupiają się na dyskryminacji, ten może być pierwszym składającym zarzuty o naruszenie ustawy o rzetelnym raportowaniu kredytowym (FCRA). Pracodawcy powinni znać to nowo pojawiające się wyzwanie prawne i rozważyć pięć kluczowych wniosków, które pomogą chronić ich organizacje. **Zarzuty: Narzędzia oceny AI jako raporty konsumenckie** Powódki, Erin Kistler i Sruti Bhaumik, oskarżają system oceny talentów oparty na AI firmy Eightfold o tworzenie szczegółowych dossiers wykraczających poza dane zgłoszone przez kandydatów. W pozwie stwierdzono, że Eightfold: - Zbierał dane z zewnętrznych źródeł, takich jak LinkedIn, GitHub, Stack Overflow i inne publiczne bazy danych - Analizował ponad 1, 5 miliarda punktów danych na cały świat, w tym ponad miliard profili pracowników - Wnioskował o preferencjach, cechach, zachowaniach, inteligencji i zdolnościach kandydatów - Oceniał kandydatów w skali 0-5, przewidując ich „prawdopodobieństwo sukcesu” - Zapewniał te oceny pracodawcom, którzy używali ich do wstępnej selekcji kandydatów przed jakąkolwiek oceną ludzką Powódki argumentują, że te oceny generowane przez AI kwalifikują się jako „raporty konsumenckie” zgodnie z federalną ustawą FCRA i kalifornijską ustawą o dochodzeniowych agencjach raportowania konsumenckiego (ICRAA). Twierdzą, że Eightfold nie spełnił obowiązków prawnych obejmujących ujawnienie, autoryzację oraz możliwość przeglądu lub zakwestionowania informacji. Eightfold zaprzecza skrapowaniu danych z mediów społecznościowych, a spodziewane są kolejne informacje. **Ramowe przepisy prawne: ustawy z lat 70. a nowoczesna AI** Ustawa FCRA, uchwalona w 1970 roku, przed powstaniem technologii AI, szeroko definiuje raporty konsumenckie jako komunikaty dotyczące wiarygodności kredytowej, charakteru lub cech osobistych danej osoby stosowane w decyzjach o zatrudnieniu. Wymaga ona: - Jasnych, odrębnych pisemnych ujawnień dla kandydatów przed uzyskaniem raportów - Pisemnej autoryzacji od kandydatów - Powiadomień o decyzji negatywnej przed odrzuceniem kandydata, zawierającego kopię raportu i prawa korzystania z nich - Powiadomień o negatywnej decyzji po odrzuceniu, zawierających wymagane informacje ustawowe - Aby agencje raportujące spełniły obowiązki, muszą uzyskać certyfikaty od pracodawców potwierdzające zgodność Kalifornijska ICRAA nakłada podobne lub ostrzejsze przepisy. Powódki utrzymują, że nie otrzymały żadnej z tych ochron przy aplikacji przez platformę Eightfold. **Czym ten przypadek się wyróżnia** W odróżnieniu od wcześniejszych pozwów dotyczących AI w rekrutacji, które skupiały się na domniemanej dyskryminacji, np. HireVue czy Workday, ten koncentruje się na prawie ochrony konsumentów. Powódki nie twierdzą, że AI Eightfold jest stronnicza, lecz że zbieranie danych z zewnętrznych źródeł i ich ranking powoduje, że narzędzia te podlegają obowiązkom FCRA, którym Eightfold rzekomo nie sprostał.
Jeśli sądy zgodzą się, że narzędzia AI to raporty konsumenckie, firmy je oferujące czy wykorzystujące mogą być zobowiązane do przestrzegania FCRA, niezależnie od kwestii stronniczości. **Implikacje dla pracodawców: Pięć kluczowych wniosków** Chociaż sprawa dotyczy Eightfold, sygnalizuje ona, że pracodawcy muszą przejrzeć zgodność swoich narzędzi AI z przepisami: 1. **Zrozum praktyki danych Twojego dostawcy AI** Wyjaśnij, jakie dane zewnętrzne wykorzystuje platforma AI, czy zbiera informacje wykraczające poza aplikacje, dokonuje prognoz i rankingów kandydatów. To pozwoli ocenić, czy mają zastosowanie przepisy FCRA lub inne prawa. 2. **Przejrzyj umowy z dostawcami i ich certyfikaty** Upewnij się, że dostawcy posiadają wymagane certyfikaty potwierdzające, że zapewniasz odrębne ujawnienia FCRA, uzyskujesz zgodę kandydatów, przestrzegasz etapów przed- i po odrzuceniu oraz unikasz dyskryminacji. Przeprowadź audyt obecnych praktyk pod kątem zgodności. 3. **Nie zakładaj, że tradycyjna zgodność z badaniami background** pokrywa także narzędzia AI AI może wykraczać poza standardowe obowiązki HR. Współpracuj z działami HR, prawnym, compliance i IT, aby opracować mapę narzędzi i zapewnić, że FCRA obejmuje wszystkie technologie oceny. 4. **Przygotuj się na nadzór regulacyjny i prawny** W obliczu rosnącego nadzoru rządowego i postępowań dotyczących AI w rekrutacji, dokumentuj działania zgodne z przepisami, utrzymuj zapisów o weryfikacji dostawców i rozważ konsultacje prawne zanim pojawią się problemy. 5. **Rozważ ryzyko nawet, gdy FCRA nie ma zastosowania** Niektórzy twierdzą, że narzędzia AI nie są raportami konsumenckimi lub są zintegrowane z decyzjami pracodawców. Jednak nieprzejrzyste decyzje AI mogą szkodzić reputacji i budzić nieufność kandydatów, co wpływa na wizerunek pracodawcy i zdolność do zatrudniania talentów. **Kolejne kroki** Pozew przeciwko Eightfold jest na wczesnym etapie i może potrwać lata, być może trafić do sądów apelacyjnych, aby wyjaśnić, czy narzędzia rekrutacyjne oparte na AI podlegają FCRA. Tymczasem pracodawcy i dostawcy AI na całym kraju będą bacznie obserwować wynik. Wyrok potwierdzający obowiązek FCRA dla tych platform może zrewolucjonizować rolę AI w procesie zatrudnienia w USA.
Implikacje pozasądowego pozwu zbiorowego Eightfold AI dla pracodawców korzystających z AI przy rekrutacji
W szybko rozwijającym się krajobrazie marketingu cyfrowego, reklamodawcy coraz częściej sięgają po sztuczną inteligencję (SI), aby zwiększyć skuteczność kampanii.
Rządowe Biuro Informacji Rady Państwa niedawno zorganizowało konferencję prasową, podczas której podkreślono znaczące osiągnięcia w rozwoju przemysłu i technologii informacyjnych, które planowane są na rok 2025.
Rozwijający się związek między sztuczną inteligencją (AI) a optymalizacją dla wyszukiwarek internetowych (SEO) tworzy głęboko symbiotyczne partnerstwo, które przekształca cyfrowy marketing.
SAN FRANCISCO, 27 stycznia 2026 /PRNewswire/ -- Enata dziś zaprezentowała „drugi mózg” napędzany sztuczną inteligencją, stworzony specjalnie dla zespołów sprzedaży terenowej, które spędzają dni na podróżach i spotkaniach z klientami twarzą w twarz.
Najnowsza świąteczna reklama Coca-Coli, stworzona przy użyciu sztucznej inteligencji, wywołała sporo dyskusji i krytyki zarówno wśród widzów, jak i ekspertów od marketingu.
Po latach wahań zaufania konsumentów i stagnującego ruchu w e-commerce, detaliści spodziewali się jedynie umiarkowanych wyników na sezon świąteczny 2025.
Integracja sztucznej inteligencji (SI) z optymalizacją pod kątem wyszukiwarek (SEO) stanowi kluczową zmianę dla marketerów cyfrowych, oferując zarówno poważne wyzwania, jak i szanse, które kształtują strategie SEO.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today