Płyną nieprzerwanym strumieniem. Gromadzi je administracja centralna, pączkują w samorządach, wypluwamy ich całe terabajty dzięki smartfonom. Dane, dotychczas szczelnie zamknięte w skarbcach i zazdrośnie strzeżone przez właścicieli, coraz częściej stają się towarem do tego stopnia, że niektórzy zaczynają nazywać je „ropą XXI wieku”
Takiego zdania jest na przykład Ginni Rometty, szefowa IBM. Podziela je również Qi Lu, który dosłużył się w Microsofcie stanowiska wiceprezesa, a potem trafił do zarządu Baidu, czyli odpowiednika Google’a zza Wielkiego Muru. – Kiedy powtarzam wam, że najbardziej seksownym zawodem za 10 lat będzie statystyk, nie żartuję – mówi Hal Varian, główny ekonomista firmy Google.
– Między ropą naftową i danymi jest jednak pewna różnica – zauważa badający procesy poznawcze naukowiec i zarazem autor książki „Historia Doliny Krzemowej” Piero Scaruffi. – Efekty obróbki czarnego złota niestety nie wytwarzają więcej ropy. Natomiast efekty obróbki danych, takie jak autonomiczne samochody, drony, urządzenia ubierane wręcz przeciwnie, wytwarzają znacznie więcej danych, jak chociażby informację o tym, dokąd jeździmy, jak szybko jeździmy, z kim jeździmy itd. – tłumaczy badacz.
Bardziej moje niż twoje
Oczywiście biznes od dawna rozumiał wartość danych. Co ludzie oglądają w telewizji? To przecież dane. Czy decyzje na temat wersji wyposażenia samochodu częściej podejmują mężczyźni czy kobiety? Też dane. Które kolory są bardziej atrakcyjne dla klientów? Który smak jest częściej wskazywany jako najlepszy? Co wpływa na decyzje o zakupie – Wszystko to dane! Firmy były i są gotowe za nie słono płacić, gdyż zapewniają szerszą perspektywę i w ten sposób pozwalają uniknąć wielu błędów.
Dzisiaj jednak mamy do czynienia z prawdziwą eksplozją danych.
– Codziennie, trzy razy na sekundę wytwarzamy ilość danych porównywalną z zawartością wszystkich zbiorów biblioteki Kongresu – zauważył Nate Silver, statystyczny guru ze Stanów Zjednoczonych oraz założyciel portalu FiveThirtyEight (jednocześnie dodał z przekąsem, że większość stanowią filmy z kotami lub dyskusje 13-latków o nowym filmie z serii „Twilight”).
Przedsiębiorstwa jeszcze nigdy nie miały do dyspozycji takiej ilości danych. Ale biznesowi to nie wystarczy i chce więcej: dostępu do danych, jakie zebrała konkurencja, a przede wszystkim do tych, które leżakują na serwerach państwowych urzędów statystycznych oraz którymi dysponują agencje centralne i władze lokalne. Wszystko po to, aby w nieustającej wojnie o klienta i użytkownika móc oferować jeszcze lepsze usługi i produkty. Trend ten z angielskiego nazywa się „open data”. Już w tej chwili jesteśmy świadkami pierwszych jego zdobyczy. A wkrótce będzie ich jeszcze więcej.
Otwierać archiwa!
Open Data Initiative – organizacja pozarządowa założona między innymi przez Tima Bernersa-Lee, ojca internetu, jakim znamy go dzisiaj – na swojej stronie podaje kilka przykładów korzyści, jakie niesie ze sobą udostępnianie danych publicznych. Jeden z nich dotyczy angielskiego odpowiednika naszego Narodowego Funduszu Zdrowia, czyli National Health Service (NHS) i leków na choroby układu krążenia.
Na początku bieżącej dekady szefostwo NHS zwróciło uwagę, że poważną część budżetu na refundację leków (400 mln z 12,7 mld funtów – ok. 2 z 63 mld zł) pochłaniają recepty na leki układu krążenia z grupy statyn. Co było dziwne, to fakt, że większość leków z tej grupy to niedrogie generyki o sprawdzonej skuteczności, sprzedawane za 5 proc. ceny „oryginałów”, więc koszt całej tej grupy był mocno wywindowany w górę. Analizy publicznie dostępnych danych w tym zakresie podjęli się specjaliści z firmy Mastodon C we współpracy z ekspertami z inicjatywy Open Health UK, którzy działają na rzecz upowszechnienia dostępu do większej ilości informacji gromadzonych w ramach służby zdrowia. Wspólnie przeanalizowali 37 mln recept i doszli do wniosku, że wysoki rachunek za statyny jest spowodowany tym, że lekarze często rezygnowali z zapisywania pacjentom zamienników oraz że na tej rozrzutności NHS traci prawie 200 mln funtów rocznie (prawie 1 mld zł; to tyle, ile za dwa lata nasz rząd planuje wydać w ramach całego programu darmowych leków dla osób po 75. roku życia).
Jeżeli relatywnie nieskomplikowana analiza danych może przynieść takie oszczędności, to nie powinno dziwić, że Zjednoczone Królestwo znajduje się w absolutnej czołówce, jeśli idzie o udostępnianie danych gromadzonych przez państwo. W rankingu Global Open Data Index Wielka Brytania zajmuje drugie miejsce, ex aequo z Australią (oba kraje wyprzedza tylko Tajwan).
– Nie chcemy być po prostu światowymi liderami w udostępnianiu rządowych danych. Chcemy, aby nasz kraj był wzorem do naśladowania, jeśli idzie o wykorzystanie potencjału open data do pobudzania wzrostu gospodarczego i tworzenia nowych przedsiębiorstw – mówił już w 2011 r. Francis Maude, minister bez teki w rządzie Davida Camerona.
Polska w tym samym zestawieniu zajmuje dopiero 28. lokatę – w tyle za Rumunią i Urugwajem. Znaleźliśmy się w końcówce trzeciej dziesiątki przez wzgląd m.in. na bardzo słaby dostęp do danych na temat użytkowania ziemi, własności działek, jakości wody i wydatków sektora publicznego.
Open data po polsku
Nieprawdziwe byłoby jednak stwierdzenie, że nic się u nas w tym względzie nie dzieje. Zresztą nie mogłoby się nic dziać, bo do otwierania dostępu do danych gromadzonych przez podmioty publiczne obliguje nas ustawodawstwo unijne. Bruksela upatruje bowiem w open data jednego ze sposobów na budowę nowoczesnej, cyfrowej gospodarki. W tym celu już w 2003 r. weszła w życie dyrektywa w sprawie ponownego wykorzystania informacji sektora publicznego, tzw. dyrektywa PSI, od tego czasu już znowelizowana w 2013 r. (obecnie znów trwają prace nad dostosowaniem jej do obecnych realiów). Według szacunków Komisji Europejskiej dyrektywa wzbogaca corocznie gospodarkę o usługi o wartości 220 mld euro (cała obróbka danych w przyszłym roku to ma być już prawie 740 mld euro).
Aby się przekonać, jak w praktyce wygląda u nas udostępnianie danych, należy odwiedzić witrynę dane.gov.pl, gdzie udostępnionych na razie zostało 14 tys. zasobów ze 127 instytucji. Jeśli klikniemy „Zakład Ubezpieczeń Społecznych”, to będziemy mogli obejrzeć statystykę dotyczącą liczby cudzoziemców zarejestrowanych w rodzimym systemie ubezpieczeń. Wybrawszy „edukację”, przekonamy się, ilu uczniów uczestniczy w zajęciach rozwijających zainteresowania i uzdolnienia. W zakładce „rolnictwo” kryje się lista produktów regionalnych i tradycyjnych z podziałem na województwa. Sprawdzimy tu też, jak popularne jest nasze nazwisko (zbiór „nazwiska występujące w rejestrze PESEL” w grupie „społeczeństwo”).
– Udostępniamy je wszystkie za darmo, do ponownego wykorzystywania, również do celów komercyjnych. Otwarte dane to świetny impuls dla rozwoju gospodarki. Dzięki udostępnianym na naszym portalu informacjom powstało już wiele użytecznych aplikacji, produktów i usług. Czekamy na kolejne – mówił na początku września Marek Zagórski, minister cyfryzacji.
Co ważne, część z dostępnych na portalu zasobów jest otwarta przez API (z ang. application programmable interface – interfejs programowania aplikacji, czyli kod używany przez programy komputerowe, który umożliwia ich wzajemną komunikację). Dzięki temu mogą być wykorzystane przez przedsiębiorców.
Ale dane w Polsce udostępnia nie tylko rząd – robią to również władze lokalne. Dla przykładu Warszawa daje wszystkim dostęp do danych z nadajników GPS zamontowanych w pojazdach komunikacji miejskiej. Efektem są aplikacje mobilne, takie jak chociażby BusLive, które pozwalają w czasie rzeczywistym monitorować trasy interesujących nas pojazdów. Politykę otwartego dostępu do danych od kilku lat prowadzi również Gdańsk, a nad własną platformą otwartych danych pracuje również Górnośląsko-Zagłębiowska Metropolia (będzie się nazywać GZM Data Store).
Otwieranie czy raczej porządkowanie danych w zasobach władz centralnych czy terenowych (bo owe informacje często już są dostępne w wielu miejscach, tylko nie są uporządkowane i zaprezentowane w przejrzysty sposób) to jednak tylko jedno ze zjawisk spod znaku open data. Innym jest otwieranie dostępu do danych zgromadzonych przez biznes. Sztandarowym przykładem jest dyrektywa w sprawie usług płatniczych w ramach rynku wewnętrznego (tzw. dyrektywa PSD 2).
Daj dane, mam młody biznes
Podstawowym celem przyświecającym dyrektywie jest umożliwienie dostępu do danych gromadzonych od lat przez instytucje finansowe innym podmiotom – często małym graczom, którzy oferują innowacyjne usługi finansowe, czyli fintechom. Firmy, które zostaną pozytywnie zweryfikowane przez Komisję Nadzoru Finansowego, otrzymają status niezależnego dostawcy (z ang. TPP, czyli third party provider).
Ten status jest jak klucz do skarbca z danymi klientów banków. Dzięki niemu firmy będą mogły świadczyć szereg usług finansowych bez fizycznego dysponowania środkami klienta. W języku dyrektywy kryją się one pod trzyliterowymi skrótami, np. PIS (z ang. payment initiation service), dzięki której zewnętrzny podmiot – np. fintech – uzyska dostęp do konta klienta w banku, w tym możliwość sprawdzenia dostępności środków pieniężnych czy zainicjowania płatności. Inną jest AIS (z ang. account information service) dająca wgląd w informacje o finansowej przeszłości klienta, co z kolei może być wykorzystane do skrojenia produktów finansowych pod konkretną osobę.
Przepisy dyrektywy obowiązują od połowy września. Już na starcie z danych klientów banków mogło korzystać ponad 60 podmiotów, w tym 12 inicjujących płatności, 21 korzystających z dostępu do historii konta oraz 31 mających oba te uprawnienia (przykładem z ostatniej kategorii są znane już polskim klientom z płatności internetowych firmy PayU i Blue Media, ale też banki: PKO Bank Polski, mBank, Alior Bank, Santander Bank Polska). Komisja Nadzoru Finansowego mówiła wtedy, że lista nie jest jeszcze zamknięta, a urząd wciąż weryfikuje kolejne podmioty.
Nasze banki stanęły na wysokości zadania i 14 września udostępniły swoje skarbnice z danymi. Sami bankowcy są jednak sceptyczni, czy od razu spowoduje to rewolucję w finansach osobistych. Jak w połowie września w rozmowie z DGP wskazywał Brunon Bartkiewicz, prezes ING Banku Śląskiego, najpierw należy poczekać, aż opadnie kurz – wtedy będzie wiadomo, które rozwiązania będą wygodne dla klientów, a które nie.
– Agregacja danych wbrew pozorom nie da znaczących efektów aż tak szybko. Z systemami agregacyjnymi w Europie Zachodniej mamy do czynienia od dłuższego czasu. Co prawda w trochę innej formule. Wielkiego wybuchu nowych rozwiązań w tym zakresie nie było. Myślę, że na naszym rynku stosunkowo szybko nastąpi uproszczenie procedury udzielania kredytu dzięki możliwości sprawdzenia sald w innych bankach, choć dla klienta nie będzie to aż tak rewolucyjne. Podsumowując: w średnim okresie PSD2 to będzie rewolucja. Ale w krótkim będzie dużo mówienia, dużo nagłówków, ale niezbyt wiele treści – mówił menedżer, który w Grupie ING pełni jednocześnie funkcje Chief Innovation Officera odpowiedzialnego za promowanie nowoczesnych rozwiązań, technologii oraz szybkie wprowadzanie innowacyjnych pomysłów na rynek.
Podobnego zdania jest Grzegorz Cimochowski, wiceprezes Deloitte, który uważa, że przez najbliższe kilkanaście miesięcy banki i licencjonowane podmioty trzecie (czyli wspomniane już TPP) będą testować rozwiązania i udoskonalać technologię.
– Spójrzmy na Wielką Brytanię, która wdrożyła przepisy o otwartej bankowości ponad półtora roku wcześniej, zanim zrobiły to inne kraje Unii Europejskiej. Tamtejsze firmy testują nowe rozwiązania otwartej bankowości od stycznia 2018 r. Przez pierwszy rok liczba licencjonowanych podmiotów oraz wymiana informacji, czyli tzw. zapytań API, rosły w ślimaczym tempie, po czym istotnie przyspieszyły. Obecnie blisko 10 proc. brytyjskiego społeczeństwa korzysta z rozwiązań otwartej bankowości – mówił menedżer niecały miesiąc temu „Pulsowi Biznesu”.
O ile jednak stworzyliśmy podwaliny pod rozwój nowoczesnych usług finansowych, o tyle skok w przyszłość wciąż hamować będzie skłonność Polaków do płacenia gotówką.
– Polska jest bezgotówkowa tylko pozornie. Jeśli chodzi o tempo rozwoju transakcji bezgotówkowych poprzez upowszechnienie się dostępu do kart płatniczych i kredytowych oraz terminali, to faktycznie można odnieść takie wrażenie. Ale statystyki są bezlitosne: wciąż ponad 50 proc. transakcji w Polsce to transakcje z użyciem gotówki – mówił DGP dr Mieczysław Groszek, prezes Fundacji Polska Bezgotówkowa.
Open banking wszędzie
Kurs na otwarte dane obrany został nie tylko w Unii Europejskiej, lecz także na antypodach. Czym dla Europejczyków jest dyrektywa PSD2, tym dla Australijczyków jest ustawa CDR (z ang. consumer data right – prawo do danych konsumentów). Podobnie jak na Starym Kontynencie daje ona klientom banków możliwość wyrażenia zgody na to, aby ich dane finansowe były udostępniane zewnętrznym podmiotom. Założenia ustawy są podobne jak u nas: zapewnienie lepszych produktów poprzez zwiększenie konkurencji. Pilotaż techniczny trwa od lipca. Ustawa z pełną mocą wejdzie w życie w lutym 2020 r.
Nie wszędzie open banking jest wymuszany przez środowisko regulacyjne. Japonia, Indie, Singapur i Korea Południowa nie stworzyły specjalnych przepisów dotyczących otwartej bankowości, niemniej tamtejsze instytucje finansowe same wzięły sprawy w swoje ręce. W Singapurze na przykład banki z własnej inicjatywy stworzyły API, które pozwala zewnętrznym podmiotom na dostęp do danych klientów. Z kolei w Japonii regulator rynku stworzył procedurę nadawania firmom statusu TPP, a banki zachęcił, żeby do przyszłego roku każdy nawiązał współpracę z przynajmniej jedną taką instytucją.
W Stanach Zjednoczonych podejście do otwartej bankowości charakteryzuje zasada „laissez-faire”: urzędy odpowiedzialne za pilnowanie rynków finansowych rozumieją potencjał kryjący się w open bankingu, ale czekają, aż branża sama wypracuje odpowiednie standardy bez narzucania czegokolwiek. I chociaż sprawia to, że pod względem gotowych rozwiązań USA chwilowo znajdują się w tyle za chociażby Europą, to stan ten nie potrwa wiecznie. Według firmy doradczej EY pod względem potencjału rynku Ameryka plasuje się wyżej niż chociażby bardziej zaawansowana regulacyjnie Australia.
„Biorąc pod uwagę skłonność regulatora do tego, aby pozostawiać opracowywanie standardów w rękach biznesu, i silną konkurencję między bankami o zdobycie względów konsumentów, instytucje finansowe i fintechy w którymś momencie na własną rękę opracują produkty spod znaku otwartej bankowości i usługi skrojone pod konsumentów. Mocna koncentracja na klientach – w przeciwieństwie do zobowiązań nakładanych prawnie przez ciała regulacyjne – może przyczynić się do popularności tych rozwiązań na rynku” – napisał Sean Viergut z EY.
Ja tobie tak, a ty mnie?
Oczywiście ideał otwartego dostępu do danych nigdy nie zostanie w pełni zrealizowany, jeżeli sami posiadacze tych danych nie będą ufali podmiotom, które je wykorzystują. Niebezpieczne precedensy w tej materii dali giganci technologicznego biznesu w serii kontrowersyjnych spraw pokazujących, że nie obchodzą się z danymi użytkowników z taką pieczołowitością, jakiej by od nich oczekiwano. Im ludzie mniej rozumieją, co się dzieje z informacjami o nich, tym silniejsza jest presja na wdrażanie rozwiązań regulacyjnych, przez które rykoszetem mogą oberwać wartościowe inicjatywy. W tym roku na przykład miasto San Francisco zakazało używania na swoim terenie technologii pozwalających na identyfikację twarzy. W samym sercu Kalifornii!
Malejące zaufanie do usług cyfrowych i świadczących je firm widać zresztą w badaniach. Ponad 60 proc. respondentów w Barometrze Zaufania Edelmana uważa, że firmy technologiczne mają zbyt dużą władzę i nigdy nie postawią interesów użytkownika ponad swoimi. Zresztą nie jest to kompletnie pozbawione podstaw. Z badania Uniwersytetu Tufts (Massachusetts) „Digital Trust and Competitiveness” wynika, że niewielu szefów firm jest przekonanych, jakoby ich firmy wdrożyły mechanizmy budujące cyfrowe zaufanie. „Jeśli dane są krwią cyfrowej gospodarki, to sercem jest cyfrowe zaufanie” – podsumowują w raporcie „Digital Trust Insights” eksperci PwC.
– Z cyfrowymi interakcjami w hiperpołączonym świecie wiąże się pytanie: jak mam zaufać komuś, kogo nie znam i kogo nie widzę na oczy? Na to pytanie staramy się odpowiedzieć już od jakiegoś czasu. Wyobrażamy sobie świat, w którym tożsamość danej osoby może być zweryfikowana szybko i bezpiecznie, dostęp udzielany jest bez haseł, a wymiana danych następuje wyłącznie za zgodą – mówi Ajay Bhalla odpowiedzialny za rozwiązania cyfrowe w Mastercard.
Ta organizacja płatnicza w marcu przedstawiła swoją wizję cyfrowej tożsamości zbudowanej wokół kilku podstawowych zasad. Pierwszą z nich jest inkluzywność: zdaniem firmy cyfrowe „ja” nie powinno być przywilejem, lecz prawem – każdy może je mieć. Inną jest transparentność, czyli przejrzystość zasad regulujących dostęp do danych i ich wykorzystanie przez osoby trzecie. Jeszcze inną jest bezpieczeństwo, czyli wymóg, aby ten typ danych był przechowywany z wykorzystaniem najbardziej rygorystycznych standardów bezpieczeństwa. Dopiero taki model zdaniem Mastercarda przywróci pełne zaufanie w sieci.
„Zaufanie jest więc wypadkową wielu elementów, kombinacją na styku narzędzi i zasad. Jeśli globalnie to zaufanie ma być wzmacniane, to jest właśnie perspektywa, z jakiej należy rozumieć cyfrowe zaufanie. Potrzebujemy jej, ponieważ porażki w cyberbezpieczeństwie – czy to popełniane przez biznes, czy przez rząd – prowadzą do erozji tego zaufania. Wówczas ludzie zaczynają się zastanawiać, na kim właściwie mogą polegać i kto ich ochroni. Dopóki nie zaczniemy traktować cyberbezpieczeństwa poważnie, zaufanie ludzi będzie maleć” – napisali w maju w magazynie „Wired” Daniel Dobrygowski i William Hoffman z World Economic Forum.