News Pricer.lt

AI Chamber ostrzega: unijny Kodeks AI może zahamować innowacje i rozwój technologii

AI Chamber ostrzega: unijny Kodeks AI może zahamować innowacje i rozwój technologii

Złożoność i nadmierne wymogi regulacji mogą skutecznie zahamować rozwój sztucznej inteligencji w Europie, szczególnie w przypadku małych i średnich firm. Eksperci wskazują, że dokument w obecnej formie bardziej utrudnia, niż wspiera innowacje, co grozi osłabieniem pozycji UE w globalnym wyścigu technologicznym.

  • AI Chamber reprezentująca polskie startupy i firmy AI skrytykowała projekt Kodeksu AI przed unijnym Biurem ds. Sztucznej Inteligencji.
  • Zarzuty obejmują złożoność regulacji, trudności we wdrożeniu, kontrowersyjne zasady dot. praw autorskich i nadmierne wymogi dla dostawców modeli AI.
  • Kodeks, zdaniem Izby, jest zbyt szczegółowy i niepraktyczny, co może spowolnić innowacje i osłabić konkurencyjność UE na rynku globalnym.

AI Chamber (Izba AI), instytucja zrzeszająca już kilkadziesiąt startupów, firm, organizacji i ngos-ów AI w Polsce, w imieniu reprezentowanych podmiotów przedłożyła w unijnym Biurze ds. Sztucznej Inteligencji oficjalne stanowisko na temat drugiego projektu ogólnego Kodeksu postępowania w zakresie sztucznej inteligencji (Second Draft General Purpose AI Code of Conduct). Kodeks jest przewodnim dokumentem dla dostawców modeli AI ogólnego przeznaczenia w zakresie wykazywania zgodności z ustawą o AI (AI Act) w całym cyklu życia modeli.

Czasu na poprawki jest mało – ostateczny Kodeks powinien być gotowy w kwietniu br., ponieważ przepisy ustawy o AI zaczną obowiązywać już w sierpniu 2025 r.

Unijna biurokracja kontra globalna konkurencja

Jak wskazuje AI Chamber, największym problemem drugiego projektu Kodeksu jest jego nadmierna szczegółowość i tworzenie nowych obowiązków, które często wykraczają poza wymagania AI Act. Złożoność i surowość przepisów mogą zniechęcać firmy do rozwijania własnych modeli AI, zwłaszcza przez małe i średnie przedsiębiorstwa (MŚP), które mogą uznać koszty i wysiłek związany z przestrzeganiem tych regulacji za zbyt wysokie. Według Izby, już teraz AI Act i obciążenia, jakie nakłada na rozwój sztucznej inteligencji, stawiają UE w niekorzystnej sytuacji w „wyścigu sztucznej inteligencji”, zwłaszcza względem USA i Chin. Kodeksy postępowania, takie jak GPAI Code of Conduct, powinny ułatwiać zgodność z przepisami AI Act, aby Europa pozostała atrakcyjnym miejscem do tworzenia modeli AI i rozwiązań opartych na tej technologii.

Ograniczenia sprzedaży czipów AI. USA mówią co z Polską

Czytaj więcej

Ograniczenia sprzedaży czipów AI. USA mówią co z Polską

– Zamiast wspierać dynamiczne i konkurencyjne środowisko dla rozwoju AI, UE ryzykuje stworzenie z Kodeksu “biurokratycznego potwora”. Chociaż w porównaniu z wcześniejszą wersją Kodeksu wprowadzono pewne usprawnienia, dokument w obecnym kształcie nadal nie spełnia swojego podstawowego celu. Z perspektywy europejskich przedsiębiorców wartość dodana Kodeksu jest znikoma, natomiast ciężar jego wdrożenia – zarówno finansowy, jak i administracyjny – może skutecznie zdusić innowacyjny zapał. – zaznacza Tomasz Snażyk, CEO AI Chamber.

Zdaniem AI Chamber wady obecnej wersji Kodeksu mogą prowadzić do spowolnienia innowacji, a w konsekwencji jeszcze silnej osłabić konkurencyjność UE w dziedzinie sztucznej inteligencji na arenie międzynarodowej. Kodeks w obecnej formie to przeciwieństwo tego, czego UE potrzebuje teraz, aby wzmocnić swoją gospodarkę i zwiększyć produktywność.

Nadmiar regulacji dusi innowacje

Kodeks zawiera nadmiernie szczegółowe wskaźniki KPI (Key Performance Indicators), które są trudne do wdrożenia i niejednoznaczne. Na przykład wymagania dotyczące dokumentacji są obszerne, ale brakuje jasnego uzasadnienia ich konieczności. Wymaganie szczegółowych informacji o parametrach modeli AI i danych używanych do ich szkolenia może naruszać tajemnice handlowe i prawa własności intelektualnej, a także zagrażać bezpieczeństwu publicznemu i zniechęcać do tworzenia innowacji. Chociaż celem Kodeksu jest transparentność, nadal istnieją obawy dotyczące poziomu szczegółowości publikowania parametrów modeli, takich jak: dane używane do szkolenia, testowania i walidacji, dane dot. zasobów obliczeniowych, czy raportowanie zużycia energii.

L’Oréal i IBM tworzą pierwszy model AI, który wspiera produkcję kosmetyków

Czytaj więcej

L’Oréal i IBM tworzą pierwszy model AI, który wspiera produkcję kosmetyków

GPAI kontra AI Act i przepisy prawa autorskiego

Jak zaznacza AI Chamber, projekt Kodeksu wprowadza obowiązki, które nie są przewidziane w AI Act. Na przykład narzuca zbyt surowe wymagania dotyczące zgodności z prawami autorskimi zbiorów danych stron trzecich. Wymaganie, aby wewnętrzne zasady dotyczące praw autorskich były „zgodne ze zobowiązaniami Kodeksu”, jest problematyczne, ponieważ Kodeks nie powinien ograniczać swobody dostawców w zakresie niezależnej oceny prawa autorskiego UE. Roszczenie podejmowania przez twórców modeli AI “rozsądnych działań” w celu oceny zgodności z prawami autorskimi zbiorów danych stron trzecich wykracza poza zakres prawa UE.

Ponadto, jak podkreśla Izba, obowiązek stosowania polityk na każdym etapie rozwoju modelu jest zbyt szeroki i trudny do zrealizowania, a postulat monitorowania praw innych podmiotów jest niepraktyczny i ingeruje w umowy handlowe. Co więcej, wprowadzenie w Kodeksie dodatkowych przepisów o charakterze eksterytorialnym budzi poważne wątpliwości prawne.

Rozmiar modeli AI nie definiuje ryzyka

Zdaniem Izby, rozmiar modelu AI lub wysokość mocy niezbędnej do jego trenowania nie są dobrymi wskaźnikami do oceny rzeczywistego ryzyka, jakie stwarzają nowe technologie. Podczas gdy generalnie Izba popiera zwolnienie MŚP z przepisów nakazowych, ponieważ brakuje im zasobów do pełnego przestrzegania Kodeksu, czasami takie podejście może stworzyć lukę prawną, w której modele AI oferowane przez małe i średnie firmy mogłyby mieć niższe standardy bezpieczeństwa i stwarzać znaczne ryzyko nadużyć określonych w AI Act.

Ustawa o sztucznej inteligencji ma na celu zapewnienie bezpieczeństwa wszystkich modeli sztucznej inteligencji, niezależnie od wielkości dostawcy, dlatego warto położyć większy nacisk na to, jakie jest rzeczywiste ryzyko złamania standardów bezpieczeństwa i jakie środki zostaną podjęte przez dostawcę modelu.

Projekt o systemach AI nie uwzględnia szczególnej roli Urzędu w nadzorze sztucznej inteligencji

Czytaj więcej

Projekt o systemach AI nie uwzględnia szczególnej roli Urzędu w nadzorze sztucznej inteligencji

Kodeks budowany na nieistniejących standardach

Kodeks opiera się też na przyszłych standardach, które nie zostały jeszcze zdefiniowane przez unijne AI Office. Tworzy to niepewność w kwestii konkretnych wymagań zgodności z ustawą o AI, co znacząco utrudnia planowanie i inwestowanie w rozwój modeli sztucznej inteligencji. Kodeks od samego początku powinien dawać rzeczywiste i konkretne wskazówki dotyczące zgodności z AI Act.

– Duża część wytycznych pozostaje nadmiernie uciążliwa i normatywna, nakładając dodatkowe obowiązki na dostawców systemów sztucznej inteligencji. To sprawia, że dokument jest niefunkcjonalny. Nowo powstające firmy AI, które stoją przed decyzją, czy opracować własny model – w obliczu tak skomplikowanych zasad Kodeksu, mogą po prostu stwierdzić, że nie warto podejmować tego wysiłku, tracąc korzyści płynące z AI – podkreśla Tomasz Snażyk.

Źródło informacji

Dalintis:
0 0 balsai
Straipsnio vertinimas
guest
0 Komentarai
Seniausi
Naujausi Daugiausiai įvertinti
Inline Feedbacks
Rodyti visus komentarus

Taip pat skaitykite: