POLSKA / PLLuM, czyli modele polskiej sztucznej inteligencji, w tym roku będą pilotażowo wdrożone w resorcie cyfryzacji i w wybranym urzędzie – poinformowała PAP dr Agnieszka Karlińska, która pokieruje konsorcjum HIVE. Dodała, że największym wyzwaniem było przeszkolenie przez ekspertów modeli AI.

    Ministerstwo Cyfryzacji przedstawiło w tym tygodniu PLLuM, czyli 18 modeli polskiej sztucznej inteligencji przeznaczonych dla firm, administracji publicznej i naukowców, oraz chatbot, z którego za darmo może skorzystać każdy użytkownik.

    „HIVE to wdrożeniowa kontynuacja PLLuM, realizowana do końca 2025 roku. Rozszerzamy konsorcjum o dwie dodatkowe jednostki, czyli Centralny Ośrodek Informatyki (COI) i Cyfronet AGH” – podała PAP dr Agnieszka Karlińska z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK. Wyjaśniła, że COI zapewni wsparcie wdrożeniowe, a Cyfronet, który dysponuje największym superkomputerem w Polsce, moc obliczeniową.

    Modele PLLuM jako asystenci w urzędach

    Modele PLLuM będą rozwijane pod kątem zastosowań w urzędach, w postaci tzw. asystentów urzędniczych oraz asystenta w mObywatelu. Inteligentni asystenci mają mieć formę chatbotów i będą się specjalizować w pytaniach zadawanych urzędnikom i przez urzędników oraz udzielaniu odpowiedzi na pytania Polaków w mObywatelu – sprecyzowała dr Karlińska.

    Jak poinformowała, Ministerstwo Cyfryzacji planuje pilotażowe wdrożenie modeli w resorcie w tym roku. „Chcemy je też pilotażowo wdrożyć w jednym wybranym urzędzie, później chcielibyśmy udostępnić rozwiązania AI w kolejnych” – dodała.

    „Dysponujemy małymi modelami, które jak najbardziej można będzie wdrożyć nawet w mniejszych urzędach” – podkreśliła. Wyjaśniła, że jest to możliwe, ponieważ część modeli zostało stworzonych w architekturze MoE (ang. Mixture of Experts), która optymalizuje liczbę aktywnych parametrów, co poprawia wydajność i redukuje zużycie zasobów.

    Pozyskiwanie danych w sposób etyczny

    Do głównych wyzwań przy tworzeniu polskiego modelu AI należało zgromadzenie odpowiednio dużego zbioru danych w języku polskim – przekazała ekspertka. „Dbaliśmy o to, żeby dane pozyskiwać w sposób etyczny i legalny. Rozpoczęliśmy od gruntownej analizy stanu prawnego, w szczególności przepisów prawa polskiego i unijnego właściwych dla ochrony praw autorskich. Duży nacisk położyliśmy na pozyskiwanie danych bezpośrednio od wydawców na podstawie umów licencyjnych. W przypadku danych ze źródeł publicznie dostępnych weryfikowaliśmy licencje kolejnych zasobów oraz obecność zastrzeżeń względem TDM, czyli dozwolonego użytku w zakresie eksploracji tekstów i danych” – podkreśliła.

    Jak wskazała, kolejnym wyzwaniem było dostrajanie i „wychowanie” modeli na podstawie tzw. instrukcji i preferencji, które z założenia miały być „przede wszystkim organiczne, tzn. opracowywane przez ludzi”.

    Instrukcje to zestawy zapytań (ang. prompty, pl. pobudzenia) i wzorcowych odpowiedzi, na podstawie których model sztucznej inteligencji uczy się, jak wykonywać konkretne zadania, np. tworzyć e-maile – wyjaśniła dr Karlińska. Jak dodała, „ręczne” tworzenie instrukcji polegało na tym, że osoby działające w PLLuM, głównie językoznawcy, pisali pobudzenia, tak jak robi to użytkownik czatbota, a następnie tworzyli modelowe odpowiedzi i całe dialogi.

    Preferencje to natomiast zestawy składające się z pobudzenia, odpowiedzi preferowanej (lepszej) i odpowiedzi odrzucanej (gorszej) – wskazała ekspertka. „Poprzez preferencje chcieliśmy nauczyć modele tworzenia odpowiedzi z jednej strony poprawnych i pomocnych, z drugiej – możliwie wyważonych i bezpiecznych. Dlatego odpowiedzi ocenialiśmy jako lepsze albo gorsze nie tylko pod kątem merytorycznym, ale także pod względem bezstronności i szeroko rozumianego bezpieczeństwa” – podkreśliła. Jak wyjaśniła, zespół sprawdzał, czy odpowiedzi modelu są wolne od potencjalnie szkodliwych dla odbiorcy treści, np. obraźliwych, niezgodnych z normami społecznymi czy wątpliwych pod względem etycznym i prawnym.

    Czasochłonne ręczne dostrajanie

    Jak podkreśliła, ręczne dostrajanie i „wychowywanie” polskiej AI było zadaniem czasochłonnym, gdyż trwało kilka miesięcy i wymagało koordynacji pracy wielu osób jednocześnie, szczególnie że „nie ma jasnych wytycznych, jak tworzyć instrukcje i preferencje dla modeli AI i jaka powinna być ich typologia”.

    „Właściciele zagranicznych modeli zazwyczaj nie publikują informacji na ten temat. Musieliśmy podejść do zadania eksperymentalnie. Myślę, że z dobrym skutkiem” – oceniła.

    Konsorcjum PLLuM

    Polskie AI zostało opracowane w ramach konsorcjum PLLuM przez Politechnikę Wrocławską (dotychczasowy lider konsorcjum), Instytut Podstaw Informatyki PAN, Instytut Slawistyki PAN, Naukową i Akademicką Sieć Komputerową (NASK-PIB), Ośrodek Przetwarzania Informacji (OPI-PIB) oraz Uniwersytet Łódzki. Zamiast utworzonego wcześniej konsorcjum PLLuM, którego działania były rozpisane do końca 2024 r., resort zapowiedział powstanie konsorcjum HIVE, które będzie rozwijać polską sztuczną inteligencję i wdrażać ją w administracji. Na jego czele stanie – zgodnie z zapowiedzią MC – dr Agnieszka Karlińska z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.

    Dane w ramach konsorcjum PLLuM zbierane były od lutego 2024 r.; trenowanie modelu trwało od czerwca do września ub.r.; w październiku model był douczany, a w listopadzie optymalizowany; według pierwotnych planów miał zostać opublikowany w grudniu ub.r.

    Projekt realizowany jest na zlecenie Ministerstwa Cyfryzacji, które jest właścicielem wyników i kontroluje rozwój PLLuM. W 2024 roku resort przeznaczył na niego 14,5 mln zł, a w br. zabezpieczono 19 mln zł.

    Monika Blandyna Lewkowicz (PAP)

      Komentarze



      CZYTAJ RÓWNIEŻ



      Ministerstvo Kultury Fundacja Fortissimo

      www.pzko.cz www.kc-cieszyn.pl

      Projekt byl realizován za finanční podpory Úřadu vlády České republiky a Rady vlády pro národnostní menšiny.
      Projekt finansowany ze środków Ministerstwa Spraw Zagranicznych w ramach konkursu pn. Polonia i Polacy za granicą 2023 ogłoszonego przez Kancelarię Prezesa Rady Ministrów.
      Publikacja wyraża jedynie poglądy autora/autorów i nie może być utożsamiana z oficjalnym stanowiskiem Ministerstwa Spraw Zagranicznych oraz Fundacji Pomoc Polakom na Wschodzie im. Jana Olszewskiego