Aktualności firm stowarzyszonych • Członkowie
Odpowiednie wdrożenie AI do organizacji minimalizuje ryzyka
Generatywna sztuczna inteligencja jest przełomową technologią, która umożliwia transformację różnych obszarów funkcjonowania firm. Wykorzystanie genAI wiąże się z istotnymi wyzwaniami prawnymi i etycznymi, które wymagają odpowiedniego przygotowania pracowników zarówno pod względem merytorycznym, jak i technicznym. Organizacje powinny kształtować wszechstronne ramy zarządzania sztuczną inteligencją, obejmujące zgodność z prawem, poprawność etyczną i transparentność zasad, aby odpowiedzialnie wykorzystywać potencjał tej technologii.
Skuteczne wykorzystanie generatywnej sztucznej inteligencji w organizacji powinno polegać na odpowiednio rozdzielonej odpowiedzialności pracowników, uwzględnianiu obowiązujących ram prawnych i etycznych, a także ciągłym pogłębianiu wiedzy na temat zasad funkcjonowania AI. Istotna jest również polityka bezpieczeństwa, w tym stosowanie odpowiednich zabezpieczeń technicznych. Nieodpowiednie i niewystarczające przygotowanie do wykorzystywania rozwiązań bazujących na sztucznej inteligencji może prowadzić do naruszenia zasad etyki pracy i niepożądanych skutków w postaci szkód reputacyjnych. Właściwe zarządzanie aplikacjami AI, oparte na uczciwości, integralności i przejrzystych zasadach, jest kluczowe w celu minimalizowania ryzyka wystąpienia niechcianych konsekwencji.
Procesy biznesowe, niezależnie od ich stopnia skomplikowania, otwierają przed nami perspektywę optymalizacji dzięki zastosowaniu sztucznej inteligencji. Jednakże efektywność AI w pełni zależy od jakości dostarczanych danych oraz warunków brzegowych ustalanych przez osoby odpowiedzialne za wdrażanie rozwiązań opartych na sztucznej inteligencji w strukturach organizacyjnych. Poszukiwanie i implementacja etycznych oraz pragmatycznych strategii optymalizacyjnych wykorzystujących potencjał AI, stawiają przed kadrą zarządzającą znaczące wyzwanie, doskonale wpisujące się w dynamiczną rzeczywistość biznesową – mówi Łukasz Dylewski, Dyrektor, Lider Data Science & AI w KPMG w Polsce.
Ryzykowne obszary związane z wykorzystaniem AI w biznesie:
- Prywatność i bezpieczeństwo danych osobowych
Modele generatywnej sztucznej inteligencji są zasilane i uczą się na obszernych zbiorach danych, w tym zawierających informacje osobowe lub poufne, co budzi zastrzeżenia dotyczące zgodności z przepisami RODO.
- Własność intelektualna
GenAI korzysta z obszernej bazy istniejących dzieł, co skutkuje możliwością generowania treści przypominających istniejące, chronione prace. Niesie to za sobą obawy o naruszanie praw autorskich.
- Precyzja dokonywanych analiz
Ryzyko tworzenia błędnych wniosków, znanych również jako „halucynacje”, wzrasta szczególnie w sytuacjach, gdy modele AI generują znaczną ilość danych lub wykorzystywane są w wysoko specjalistycznych branżach, w których nie są dostatecznie przeszkolone i brakuje im dostępu do adekwatnych źródeł informacji.
- Dyskryminacja na tle praw obywatelskich
Wzrost zainteresowania modelami AI oraz ich coraz powszechniejsze zastosowanie w procesach biznesowych wywołuje pytania dotyczące etyki i sprawiedliwości społecznej. Generatywna sztuczna inteligencja niesie ze sobą ryzyko naruszania praw obywatelskich, gdy tworzone treści wykazują tendencje do dyskryminacji określonych grup społecznych.
- Odpowiedzialność prawna
W ramach obowiązującej w Unii Europejskiej Dyrektywy w sprawie odpowiedzialności za produkty wadliwe oraz projektu Dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję, operator systemu AI może ponosić odpowiedzialność za szkody wyrządzone przez ten system osobom trzecim.
Wdrożenie odpowiedniego podejścia do AI pozwoli firmom odpowiedzialnie i transparentnie wykorzystywać generatywną sztuczną inteligencję, jednocześnie minimalizując ryzyka i maksymalizując korzyści zarówno dla własnej działalności, jak i społeczeństwa. Ostatecznie kluczowe jest znalezienie równowagi między adaptacją innowacji a ochroną fundamentalnych wartości, co otworzy perspektywę na przyszłość, w której genAI będzie wykorzystywana dla ogólnego dobra społeczeństw i gospodarek – mówi Łukasz Dylewski, Dyrektor, Lider Data Science & AI w KPMG w Polsce.
****
KPMG jest globalną organizacją niezależnych firm świadczących usługi profesjonalne z zakresu audytu, doradztwa podatkowego i doradztwa gospodarczego. KPMG działa w 143 krajach i zatrudnia ponad 265 000 pracowników w firmach członkowskich na całym świecie. Każda z firm KPMG jest odrębnym podmiotem prawa. KPMG International Limited jest prywatną spółką angielską z odpowiedzialnością ograniczoną do wysokości gwarancji. KPMG International Limited i podmioty z nią powiązane nie świadczą usług na rzecz klientów. W Polsce KPMG działa od 1990 roku. Obecnie zatrudnia ponad 2300 osób w Warszawie, Krakowie, Poznaniu, Wrocławiu, Gdańsku, Katowicach i Łodzi. Więcej na stronie kpmg.pl.
****
Kontakt dla mediów:
Krzysztof Krzyżanowski, e-mail: kkrzyzanowski(@)kpmg.pl, tel.: +48 22 528 11 14 lub 508 047 582
Jakub Malczewski, e-mail: jmalczewski(@)kpmg.pl, tel.: +48 22 528 15 72 lub 605 511 308
Patrycja Kowalczyk, e-mail: patrycjakowalczyk(@)kpmg.pl, tel.: +48 22 528 11 87 lub 664 718 676
****
Współadministratorami Pana/Pani danych osobowych są Spółki wchodzące w skład sieci KPMG w Polsce, (tj. KPMG Sp. z o.o., KPMG Sp. z o.o. sp. k., KPMG Audyt Sp. z o.o., KPMG Audyt Services Sp. z o.o., KPMG Audyt Sp. z o.o. sp. k., KPMG Advisory Sp. z o.o. sp. k., KPMG Tax M.Michna Sp. k., KPMG Usługi Księgowe Sp. z o.o., KPMG Law Stopyra Szczodra spółka komandytowa, KPMG Restructuring Sp. z o. o.). Pana/Pani dane osobowe będą przetwarzane w celu umożliwienia kontaktu Biura Prasowego KPMG z przedstawicielami mediów, w tym nawiązanie z Panem/Panią kontaktu oraz dostarczenie Panu/Pani w tym celu informacji technicznych. Pełna informacja o przetwarzaniu danych osobowych dostępna jest w Polityce prywatności w sekcji "Przedstawiciele mediów".
Document Classification: KPMG Public.