Skip to main content

      W całym 2020 r. w Polsce zarejestrowano 428,3 tys. nowych samochodów osobowych – o 23% mniej niż w poprzednim roku. Spadki rejestracji, z wyjątkiem motocykli, dotyczą również aut dostawczych, ciężarowych, przyczep i naczep, autobusów oraz motorowerów. Tempo wzrostu utrzymuje segment samochodów osobowych z napędami alternatywnymi. W 2020 roku w Polsce liczba rejestracji samochodów tego typu wyniosła 79,2 tys. i była wyższa o 50,2% w stosunku do 2019 roku.

      W ostatnim kwartale 2020 roku zarejestrowano w Polsce 133,2 tys. nowych samochodów osobowych tj. o 11,5 tys. mniej niż w tym samym kwartale poprzedniego roku. Ogółem w całym 2020 roku liczba rejestracji nowych samochodów osobowych spadła aż o 22,9% i wyniosła 428,3 tys. Spadki odnotowano w rejestracjach dokonywanych przez klientów instytucjonalnych, których w tym okresie było 311,1 tys. (-20,8%). Z kolei klienci indywidualni w omawianym czasie zarejestrowali 117,3 tys. szt. samochodów osobowych, co oznacza, że spadek był jeszcze większy i wyniósł -28%.

      Rynek samochodów premium+ okazał się bardziej odporny na skutki pandemii niż sektor marek popularnych. W całym 2020 roku liczba rejestracji nowych samochodów osobowych marek premium+ wyniosła 76,6 tys. i była niższa o 4,8% w porównaniu do 2019 roku. Na rynku dominuje segment klientów instytucjonalnych, który skurczył się o 6,7%, natomiast liczba rejestracji w segmencie klientów indywidualnych wzrosła o 13,2%


      Ryzyko studzi entuzjazm

      Według „KPMG global tech report 2023” liderzy technologiczni uważają sztuczną inteligencję i uczenie maszynowe za najważniejszą technologię do osiągnięcia swoich celów biznesowych w najbliższym czasie. Jednak podobnie jak w przypadku każdej nowej technologii, diagnozowane są również ryzyka. Niepokój respondentów widać zarówno we wspomnianym wyżej globalnym badaniu, jak i w przeprowadzonym kilka miesięcy temu przez KPMG w Australii „Trust in artificial intelligence”.

      • 55% liderów technologicznych twierdzi, że ich postępy w automatyzacji są opóźnione z powodu obaw o sposób podejmowania decyzji przez narzędzia oparte na sztucznej inteligencji1.
      • 61% ankietowanych nieufnie podchodzi do systemów opartych na sztucznej inteligencji2.
      • 50% respondentów uważa, że korzyści płynące z AI przewyższają ryzyko2.

      Powszechne i nieuregulowane wykorzystanie sztucznej inteligencji budzi też pytania o jej wpływ na prawa człowieka i prywatność. Algorytmy są nieprzewidywalne, złożone i trudne do wyjaśnienia. Biorąc pod uwagę ich zastrzeżony charakter brakuje im przejrzystości, a wyniki generowane przez AI powstają w oparciu o przetwarzanie na dużą skalę danych z Internetu, zwiększając ryzyko wycieku poufnych informacji i naruszenia prawnie chronionych danych osobowych. Aby firmy mogły maksymalnie wykorzystywać potencjał sztucznej inteligencji, potrzebują być na bieżąco z informacjami na temat wpływu AI na prywatność i bezpieczeństwo danych.


      „KPMG global tech report 2023”, KPMG International, 2023.

      „Trust in artificial intelligence”, The University of Queensland i KPMG Australia, 2023.


      Plany regulacyjne podsycają nadzieję

      Unia Europejska podejmuje pierwszą na świecie próbę ustanowienia przepisów, które mogą okazać się najbardziej surowymi regulacjami dotyczącymi ochrony prywatności użytkowników AI. Rada, Parlament i Komisja Europejska zaproponowały ustawę o sztucznej inteligencji (EU AI Act). Dokument opiera się na przepisach dotyczących prywatności zawartych w ogólnym rozporządzeniu o ochronie danych osobowych (RODO), które obejmują zasady dotyczące otwartości, uczciwości, algorytmicznego podejmowania decyzji i godności ludzkiej. Już w 2019 roku Organizacja Współpracy Gospodarczej i Rozwoju (OECD) opierając się na tych zasadach stworzyła podstawy zarządzania godną zaufania sztuczną inteligencją, które stanowią, że systemy AI powinny być niezawodne i bezpieczne przez cały cykl życia. EU AI Act dodatkowo wzmacnia te zasady nakazując, aby sztuczna inteligencja spełniała wspomniane warunki pod względem prawnym, etycznym i technicznym, przy jednoczesnym poszanowaniu wartości demokratycznych, praw człowieka i praworządności. Wiele z zasad OECD dotyczących sztucznej inteligencji można przyporządkować do zasad zabezpieczania prywatności w kontekście ochrony danych osobowych i rozszerzyć na zasady privacy by design, czyli uwzględnienie ochrony danych osobowych już w fazie projektowania. Przyjęcie tego podejścia może wzmocnić poczucie pewności klientów, organów regulacyjnych i innych zainteresowanych stron o wiarygodności sztucznej inteligencji oraz zminimalizować wszelkie negatywne skutki wynikające z jej funkcjonowania.


      Istotne aspekty, które pomogą organizacjom budować zaufanie do sztucznej inteligencji


      • Zrozumienie otoczenia regulacyjnego i ustalenie strategii ochrony prywatności w zakresie sztucznej inteligencji

        Ustawodawcy, niezależne organy regulacyjne i inni decydenci konsekwentnie podkreślają konieczność dostosowania systemów sztucznej inteligencji do uznanych standardów. Dlatego ważne jest, aby zidentyfikować ramy regulacyjne mające zastosowanie w konkretnej branży i firmie oraz zaplanować sposób wdrożenia sztucznej inteligencji. Niezbędne jest stworzenie standardu dla wykorzystania AI, który spełnia najlepsze praktyki oraz usprawnienie rozwoju zarówno niej samej, jak i związanych z nią działań biznesowych.

      • Włączenie privacy by design do projektów AI

        Privacy by design, jak określono w normie ISO 31700 oraz w KPMG Privacy by Design Assessment Framework, może pomóc organizacjom w budowaniu prywatności w systemach AI. Dla prawidłowego wykorzystania sztucznej inteligencji niezbędna jest ocena wpływu na ochronę prywatności i kwestie zgodności już na etapie tworzenia pomysłu, a następnie przez cały cykl jego życia – poprzez Privacy Impact Assessment (PIA) lub Data Protection Impact Assessment (DPIA).

      • Ocena zagrożeń dla prywatności związanych ze sztuczną inteligencją

        Bezpieczeństwo danych może być związane zarówno z opracowywaniem wewnętrznych rozwiązań AI, jak i z korzystaniem z publicznych modeli, trenowanych na ogólnodostępnych danych. Istotna jest kontrola zgodności tych modeli z najnowszymi standardami, przepisami i najlepszymi praktykami. Wymóg ten dotyczy nie tylko dostawców, ale też klientów, którzy mogą prosić deweloperów o dokumentację dotyczącą oceny ryzyka prywatności.

      • Audyt systemu AI

        Twórcy i dostawcy systemów AI powinni zapewnić klientów i organy regulacyjne, że dołożyli niezbędnych starań, aby zbudować godne zaufania narzędzia oparte na sztucznej inteligencji. Jednym ze sposobów jest przeprowadzenie audytu pod kątem uznanych standardów, ram regulacyjnych i najlepszych praktyk, w tym oceny wpływu algorytmów. Podstawą jest badanie systemu za pomocą skryptów testowych, które mogą odnosić się do rzeczywistych scenariuszy, a także uzyskanie opinii użytkowników, które to z kolei pomogą zapewnić niezawodność i uczciwość technologii.

      • Poszanowanie praw i wyborów poprzez zapewnienie przejrzystości danych

        Dostawcy muszą być przygotowani na zarządzanie preferencjami odbiorców i wyjaśnianie kwestii budzących ich wątpliwości. Organizacje, które chcą wykorzystywać sztuczną inteligencję do zautomatyzowanego podejmowania decyzji powinny być w stanie zrozumiale wyjaśniać w jaki sposób AI może wpłynąć na finalnych odbiorców tej technologii. Stworzenie odpowiednich procedur może stanowić znaczne ułatwienie pozwalające na identyfikację danych i sposobów ich wykorzystywania przez sztuczną inteligencję.


      Pobierz pełną wersje raportu


      Prywatność w czasach AI

      Prywatność w czasach AI

      Zachęcamy do zapoznania się z pełną treścią raportu KPMG.

      Skontaktuj się z nami


      Dowiedz się więcej, o tym w jaki sposób wiedza i technologia KPMG mogą pomóc Tobie i Twojej firmie.


      Nasi eksperci

      Michał Kurek

      Partner, Advisory, Szef Zespołu Cyberbezpieczeństwa w KPMG w Polsce i Europie Środkowo-Wschodniej

      KPMG w Polsce



      Newsletter


      Chcesz otrzymywać najświeższe informacje biznesowe?