Strona w budowie, zapraszamy wkrótce...

Zapraszamy już za:

-1357Dni -22Godzin -12Minut -20Sekund

 

 

Strona w budowie, zapraszamy wkrótce...

Sztuczna inteligencja – więcej nie znaczy lepiej! W świecie IT nie widzieliśmy takiej euforii i szybkości adaptacji od czasu pojawienia się technologii blockchain, podkreśla ekspert Red Hat

Mariusz Laurisz
Mariusz Laurisz
Z branżą nowych technologii związany od ponad dwóch dekad. Od czterech lat Redaktor Naczelny oraz Wydawca magazynu IT Reseller Polska.

Powiązane

Sztuczna inteligencja staje się wszechobecna. Jej początku nie wyznacza pojawienie się modelu ChatGPT, ale to wraz z jego premierą w listopadzie ubiegłego roku SI zyskała ogromną popularność. “W świecie IT nie widzieliśmy takiej euforii i szybkości adaptacji od czasu pojawienia się technologii blockchain. Według tegorocznego raportu IDC do 2026 roku wydatki na sztuczną inteligencję na świecie wyniosą ponad 301 mld dolarów, czyli dwukrotnie więcej niż obecnie.” – zwraca uwagę Jan Wildeboer, Open Source Evangelist na region EMEA w firmie Red Hat.

Obiecuje się, że sztuczna inteligencja przyczyni się do poprawy wydajności pracowników, zwiększenia zadowolenia klientów oraz minimalizacji ryzyka biznesowego. Pod wpływem tej euforii wielu pracowników skłania się do eksperymentów z narzędziami SI i dąży do bycia pionierem w tej dziedzinie. Jednak chcąc wykorzystać nowe sposoby budowania przewagi konkurencyjnej, nieświadomie narażają swoje organizacje na ryzyko.

 

Co z kontrolą nad danymi?

Popularna jest narracja, według której dane są cennym zasobem, więc zwiększanie ich ilości przyczynia się do wzrostu ich wartości. Nie zawsze jest to prawda. Im więcej używanych jest różnych zbiorów danych, tym trudniej zapewnić ich wiarygodność i dokładność. Dodatkowo istnieje ryzyko naruszeń praw autorskich, do których sztuczna inteligencja może przypadkowo doprowadzić.

 

Warto zwrócić uwagę na przykład SI, która obecnie jest bardzo popularna – ChatGPT. Na stronie firmy OpenAI widnieje zastrzeżenie, że program „może generować niedokładne informacje”. Istnieje wiele dowodów potwierdzających tę tezę. Może nie stanowić to większego problemu, jeśli potrzebujemy tylko przepisu na biszkopt, ale staje się poważnym zagrożeniem, jeśli wykorzystujemy go np. do badania orzecznictwa. – podkreśla Jan Wildeboer, Open Source Evangelist na region EMEA w firmie Red Hat. Przenieśmy to ryzyko do środowiska biznesowego. Narzędzie SI automatycznie zarządza poziomami zasobów; konfiguruje wynagrodzenia na podstawie wydajności; prognozuje kwartalne przepływy pieniężne; optymalizuje transakcje walutowe i inne, podejmuje fundamentalne decyzje, które mają ogromny wpływ na rentowność biznesu. Wszystko to można skutecznie kontrolować dzięki dojrzałej strategii zarządzania danymi i SI. Problem pojawia się, gdy pracownicy zaczynają korzystać z nieautoryzowanych i niezweryfikowanych narzędzi wykorzystujących sztuczną inteligencję. Uniemożliwia to kontrolę. Wyzwanie jest więc dwojakie – jak zagwarantować integralność znanych i stosowanych narzędzi SI oraz jak powstrzymać pracowników przed używaniem niezweryfikowanych narzędzi w swojej pracy?

 

Odpowiedź jest bardziej ogólna niż konkretna. Przyszłość sztucznej inteligencji nie leży w dużych modelach językowych, które obecnie dominują w medialnych nagłówkach, ani w innych ogólnych rozwiązaniach, które będą służyć wielu użytkownikom. Przedsiębiorstwa będą potrzebowały rozwiązań, które są specyficzne dla ich branży, klientów i zadań.

 

Lepsze i bardziej trafne dane

Nowa era „specjalistycznej sztucznej inteligencji” będzie charakteryzowała się możliwością tworzenia unikalnych i zróżnicowanych usług. Wymaga to, aby modele bazowe były szkolone na danych prywatnych i dostosowywane do standardów oraz praktyk danej firmy lub branży. Gdy takie modele są zasilane dobrze zorganizowanymi, skoncentrowanymi i zweryfikowanymi danymi, oferują możliwości, które sprawiają, że współpraca z nimi daje wrażenie pracy z ekspertem. Można im zaufać, ponieważ wiadomo, że nie zostały stworzone na podstawie losowych zbiorów danych zebranych z różnych źródeł. Decyzje, które generuje SI są bardziej trafne i skuteczne. W rezultacie pracownicy nie będą potrzebowali szukać własnych, niezweryfikowanych rozwiązań. Dodatkowo, jeśli zostaną zaangażowani w proces tworzenia rozwiązań sztucznej inteligencji, poczują większe zaangażowanie i lojalność wobec firmy.

 

Ci, którzy są naprawdę „wtajemniczeni” wiedzą, że właśnie w dziedzinie sztucznej inteligencji zachodzą najciekawsze innowacje. Opracowywane są zestawy narzędzi do SI specyficznej dla danej branży. Już wydają się one mieć większy potencjał od dużych graczy w dziedzinie sztucznej inteligencji. Zgodnie z powiedzeniem – więcej nie zawsze znaczy lepiej. – zaznacza Jan Wildeboer, Open Source Evangelist na region EMEA w firmie Red Hat. Ważne, by tworzeniu narzędzi towarzyszyła przejrzystość i wiarygodność. Dlatego rozwijanie sztucznej inteligencji jest zadaniem zespołów odpowiedzialnych za prawo i zgodność z przepisami. Ich współpraca z analitykami danych i specjalistami z dziedziny DevOps będzie kluczowym elementem skutecznej strategii SI. Konieczne jest tworzenie i egzekwowanie wytycznych dotyczących tego, jak i kiedy używać SI, a także stawianie pytań o pochodzenie danych, które prawdopodobnie będą zadawane również przez organy regulacyjne. Na całym świecie rośnie zaangażowanie organów jurysdykcji w te kwestie, co potwierdza przykład AI Act Unii Europejskiej, AI Bill of Rights w USA, brytyjski AI Regulation Policy Paper czy przepisy ChRL dotyczące zarządzania algorytmicznymi rekomendacjami. Ignorancja była słabą obroną, nawet gdy można było zrzucić odpowiedzialność na dostawcę. Nie będzie to jednak możliwe, gdy modele sztucznej inteligencji zostaną stworzone na podstawie własnych danych.

 

Na modę na sztuczną inteligencję trzeba uważać. Odchodząc od SI ogólnego przeznaczenia na rzecz SI specyficznej dla branży, firmy zyskują znacznie bardziej efektywne możliwości oraz (jeśli zostało to przeprowadzone właściwie) bardziej wyedukowanych i przestrzegających zasad pracowników. Wymaga to jednak odpowiedniego zarządzania przedsiębiorstwem.

 

Szum medialny wokół sztucznej inteligencji spowodował pilną potrzebę jej adopcji. Rozsądnym podejściem jest zatrzymanie się, przeanalizowanie i upewnienie się, że inwestycje w sztuczną inteligencję – w systemy, ludzi i kulturę – uwzględniają zarówno szanse, jak i zagrożenia. – dodaje Jan Wildeboer, Open Source Evangelist na region EMEA w firmie Red Hat.

 

“Chmura rozwiązuje wiele wyzwań” – podkreślają Joanna Parasiewicz z OVHCloud i Marcin Madusiok z Elte Group w programie IT Reseller TV „Liderzy Branży”

ZOSTAW ODPOWIEDŹ

Please enter your comment!
Please enter your name here

Newsletter

Social media

Najpopularniejsze

Feardemic rozbudowuje portfolio gier, liczy na poszerzenie grona odbiorców.

Feardemic - spółka-córka Bloober Team i wydawca gier z gatunku horror - poszerza swoje portfolio wydawnicze, aby trafić do większej grupy odbiorców, poinformował CEO...

Warszawski Instytut Bankowości/Związek Banków Polskich: 86% Polaków czuje się bezpiecznie, korzystając...

Liderem w obszarze cyberbezpieczeństwa są banki (54%), wyprzedzając tym samym firmy technologiczne (31%) oraz wojsko i policję (30%), wynika z badania "Postawy Polaków wobec...

Rząd planuje powołanie Centralnego Biura Zwalczania Cyberprzestępczości.

Rząd planuje powołanie Centralnego Biura Zwalczania Cyberprzestępczości, które ma zajmować się wyłącznie problemami dotyczącymi cyberbezpieczeństwa, poinformował premier Mateusz Morawiecki. Planowane są zmiany ustawy o...

Biuro Informacji Kredytowej: Wartość pożyczek od firm pożyczkowych wzrosła o 119,9%...

Firmy pożyczkowe udzieliły w czerwcu finansowania na kwotę 661 mln zł (wzrost o 119,9% r/r), wynika z danych Biura Informacji Kredytowej (BIK). Średnia wartość...

Huawei podczas International Automobile Industry Exhibition w Szanghaju ogłosił rozpoczęcie sprzedaży...

Huawei rusza ze sprzedażą na chińskim rynku pierwszego samochodu z technologią Huawei na pokładzie. Od środy 21 kwietnia, elektryczny samochód SERES SF5 będzie dostępny...

Najnowsze

Poważna luka bezpieczeństwa w procesorach Apple

Badacze z kilku amerykańskich uczelni (m.in. University of Texas w Austin i University of California, Berkeley) odkryli poważną lukę w zabezpieczeniach chipów Apple M1...

Cisco i Microsoft transmitują dane z prędkością 800 Gb/s za...

Cisco ogłosiło sukces, jakim jest przesył danych z prędkością 800 Gb/s transatlantyckim kablem komunikacyjnym Amitié, który biegnie przez 6 234 km - z Bostonu...

Snowflake współpracuje z NVIDIA, aby dostarczyć klientom kompleksową platformę AI

Snowflake, firma oferująca Chmurę Danych, ogłosiła na konferencji NVIDIA GTC rozszerzoną współpracę z firmą NVIDIA. Jej efektem będzie wzmocnienie pozycji klientów korporacyjnych dzięki platformie...

Bank BNP Paribas rozpoczął wdrażanie Oracle Fusion ERP Cloud, pierwszym na...

Bank BNP Paribas rozpoczął wdrażanie Oracle Fusion ERP Cloud. Będzie to pierwszy w sektorze bankowym system Enterprise Resource Planning (ERP) działający całkowicie w chmurze....

OVHcloud poszerza portfolio chmury publicznej o usługę Managed Rancher Service inicjując...

Grupa OVHcloud, europejski lider w dziedzinie chmury, podczas konferencji KubeCon Europe 2024 ogłosiła wprowadzenie nowych usług do rosnącej oferty chmury publicznej, liczącej ponad 40...