Luty to dobry czas na testowanie nasion

Możemy rozpocząć testowanie nasion, które w poprzednim sezonie zebraliśmy. Układamy je na płaskim talerzu wyścielonym wilgotną ligniną. Po kilku dniach zaczną kiełkować. Jeśli wykiełkuje niewiele, kupujemy nowe.

Czy w lutym wykonuje się opryski na roślinach?

W ogrodzie pracy niewiele, ale możemy sprawdzić rośliny i osłony. Jeżeli panują dodatnie temperatury, a dni są słoneczne i suche, pryskamy miedzianem brzoskwinie i nektarynki przeciwko kędzierzawości, a świerki i modrzewie na ochojniki, stosując preparaty olejowe, np. pramolan. W razie potrzeby poprawiamy warstwę emulsji bądź wapna na pniach drzew owocowych, by odbijały światło. Ciemna kora absorbuje ciepło, a to pobudza krążenie soków, które podczas zimnych nocy mogą zamarzać, powodując rozsadzanie pni. Niszczymy mumie pozostające od jesieni na drzewach. Często zimują w nich szkodniki. Są także źródłem chorób grzybowych.

Dzień kwiatu w lutym - jakie nasiona wysiewać?

W dni kwiatu można rozpocząć wysiew nasion jednorocznych pnączy, takich jak:

  • hunbergie,
  • kobee,
  • wilce,
  • żeniszki,
  • begonie,
  • petunie.

Dzień liścia w lutym - co robić?

Jeśli mamy szklarnie, inspekty czy tunele, warto wypełnić je obornikiem, by się zagrzały. Po upływie około tygodnia połowę obornika usuwamy, a drugą zostawiamy i przysypujemy dobrą ziemią. W tak przygotowane miejsce w dniu liścia możemy wysiać sałatę, rzodkiewkę, dymkę oraz rozsadę warzyw kapustnych. Rozpoczynamy przygotowywanie rozsady kardów i karczochów.

Co robić w lutym w dni z symbolem owocu?

Pod koniec miesiąca, w dni z symbolem owocu, można rozpocząć korektę drzew i krzewów o najwyższej mrozoodporności, np. grusz, jabłoni, porzeczki czy agrestu, pamiętając, by robić to podczas suchych, słonecznych dni. Z cięciem gatunków mniej odpornych na niskie temperatury czekamy do marca, kwietnia. Szukamy zmian chorobowych na korze i drewnie i usuwamy je aż do zdrowej tkanki. Miejsce uszkodzenia pokrywamy farbą emulsyjną z dodatkiem np. funabenu. Na pniach zakładamy opaski lepowe na wędrujące ku koronie szkodniki. Szykujemy doniczki, skrzyneczki i inne naczynia do produkcji rozsady. Ziemię wnosimy do pomieszczeń, by się ogrzała. W dni kwiatowe przycinamy krzewy ozdobne kwitnące latem. Tym sposobem zmusimy je do obfitego kwitnienia.

---

---

image
Kalendarz biodynamiczny

Kalendarz biodynamiczny na styczeń 2024: kiedy zacząć produkcję rozsad?

Małgorzata Wyrzykowska

29.01.2024 / 10:10
StoryEditor

AI Governance - wyzwania na najbliższe lata

Marcin Makusak, partner w PwC Polska oraz Mateusz Szajdak, menedżer w PwC Polska 
Cyfrowa rewolucja, digitalizacja procesów biznesowych, a w ostatnim czasie pandemia COVID-19, której skala zaskoczyła wiele podmiotów i całe segmenty gospodarki, spowodowały zwiększenie zainteresowania wykorzystaniem sztucznej inteligencji (AI). Rozwój tej technologii jeszcze bardziej przyśpieszył po pojawieniu się generatywnej sztucznej inteligencji (Gen AI), w tym szeroko dyskutowanego i wykorzystywanego ChatGPT.

Dynamiczny rozwój AI oraz dostęp do zasobów danych o coraz lepszej jakości, które są potrzebne w procesie tworzenia narzędzi opartych o sztuczną inteligencję spowodowały, że punkt nacisku dotyczący przeznaczenia tych narzędzi uległ zmianie.

– Początkowo organizacje skupiały się na punktowym zastosowaniu AI, często w celu automatyzacji rutynowych zadań. Obecnie automatyzacja powtarzalnych zadań nie jest już najważniejszym priorytetem. Zaledwie 25 proc. ankietowanych przedsiębiorstw w ramach PwC 2021 AI Predictions wskazało to jako najważniejszy priorytet w stosunku do 35 proc. w ramach poprzedniej edycji tego badania. Odejście od wykorzystania AI na potrzebę wybranych obszarów (silosów) i przejście na “cross-funkcjonalne” zastosowanie, które dotyka wielu aspektów działalności przedsiębiorstwa, stanowi naturalną ścieżką rozwoju w wykorzystywaniu AI i może być elementem strategicznym w realizacji wizji przedsiębiorstwa opisującej, w jaki sposób dana organizacja ma działać w przyszłości. Często wpływ jest tak ogromny, że wiąże się z reorganizacją całego przedsiębiorstwa, a nawet zmianą modelu biznesowego – mówi Marcin Makusak, partner PwC Polska.

Organizacje dostrzegają potrzebę właściwego AI governance i zarządzania ryzykiem wykorzystywania AI

Powszechniejsze wykorzystanie AI jest procesem, który wymaga odpowiedniej strategii, planu i organizacji (operacjonalizacji). W ramach tego procesu, przedsiębiorstwa zaczęły zwracać również uwagę na zagadnienia związane z ryzykiem korzystania z AI, a co za tym idzie, odpowiednimi działaniami, aby tym ryzykiem zarządzać (governance).

– Kolejna kwestia, która stała się niezwykle istotna, to analiza interakcji między AI a interesariuszami (np. klientami zewnętrznymi). Mowa tutaj o podejmowaniu kroków, które pomogą zapewnić, aby rozwijane systemy sztucznej inteligencji były: odpowiedzialne, godne zaufania, stabilne i uczciwe - w skrócie: wiarygodne i przewidywalne. W PwC nazywamy takie rozwiązania: Responsible AI – komentuje Mateusz Szajdak, manager PwC Polska.

Wśród najważniejszych działań, jakie podejmowane są przez organizacje, które dostrzegły istotność zagadnienia odpowiedzialnej sztucznej inteligencji są m.in.:

  • zwiększenie bezpieczeństwa AI dzięki zastosowaniu walidacji, monitorowaniu i weryfikacji,
  • stworzenie przejrzystych, rozszerzalnych i sprawdzalnych modeli AI,
  • stworzenie systemów AI, które będą etyczne, zrozumiałe i legalne,
  • usprawnienie zarządzania dzięki modelom operacyjnym i procesom AI,
  • przeprowadzenie testów pod kątem weryfikacji ewentualnej stronniczości danych, modeli lub wykorzystania algorytmów przez człowieka.

Kluczowe elementy dla właściwego AI governance

Aby móc mówić o Responsible AI należy uwzględnić kilka aspektów, które są ważne na wszystkich etapach wykorzystywania sztucznej inteligencji, od samego projektu rozwiązania, po utrzymanie działającego systemu:

  • obowiązujące przepisy prawa i zasady etyczne,
  • model governance, który pozwala zaprojektować, przygotować, przetestować, wdrożyć i utrzymać system AI w zdefiniowanym środowisku organizacji,
  • zasady bezpieczeństwa, które będa chronić sam system i użytkowników wchodzących z nim w interakcje,
  • wyjaśnialność/interpretowalność, czyli czytelne i zrozumiałe zasady działania AI, pozwalające na jego łatwe, czytelne i jednoznaczne zinterpretowanie.

Poza tym, warto zwrócić uwagę na to, że odpowiedni model governance jest także istotny z punktu widzenia obszarów environmental, social, corporate governance (ESG):

  • zużycie znacznej ilości energii elektrycznej dla potrzeb działania skomplikowanych systemów AI może wpłynąć na generowany przez organizację ślad węglowy - Environmental,
  • zagadnienie równego traktowania interesariuszy jest ważnym aspektem obszaru Social,
  • fakt wykorzystywania AI ma wpływ na wartość przedsiębiorstwa, a brak odpowiedniego zarządzania takim systemem może negatywnie wpłynąć zarówno na jego reputację, jak i, w konsekwencji na wycenę - Governance.

Projekt unijnego rozporządzenia w zakresie AI

Zasadność zapewnienia odpowiedniego poziomu wiarygodności i przewidywalności systemu sztucznej inteligencji i ochrony praw użytkowników wchodzących z nim interakcję zauważyła Unia Europejska, która przygotowała projekt Rozporządzenia Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji.

Projekt rozporządzenia, co do którego osiągnięto w grudniu 2023 r. porozumienie polityczne, ma mieć charakter regulacyjny i kłaść nacisk na zapewnienie, aby wprowadzone do obrotu i użytkowane systemy AI były bezpieczne i zgodne z obowiązującymi przepisami w obszarze praw podstawowych i wartości unijnych oraz aby przepisy i wymogi bezpieczeństwa wobec AI były skuteczne egzekwowane – wyjaśnia Marcin Makusak. – Oprócz tego, celem przygotowywanego rozporządzenia jest ułatwienie rozwoju jednolitego, bezpiecznego i wiarygodnego rynku oraz wsparcie innowacyjności – doprecyzowuje.

W przygotowanym projekcie przyjęte zostało podejście oparte na ryzyku, przewidujące cztery grupy ryzyka:

  • niedopuszczalne ryzyko - dotyczy zbioru zastosowań AI, które są sprzeczne z wartościami UE, np. scoring obywateli, wykorzystanie technik podprogowych, zdalna identyfikacja biometryczna w czasie rzeczywistym przez organy ścigania, kategoryzacja biometryczna, prognozowanie przestępczości, rozpoznawanie emocji w miejscu pracy i placówkach edukacyjnych, przeszukiwanie Internetu,
  • wysokie ryzyko - ograniczony zbiór zastosowań, które mogą mieć negatywny wpływ na bezpieczeństwo ludzi lub ich prawa podstawowe, np. dostęp do usług publicznych i prywatnych, procesy rekrutacyjne, migracja, azyl i kontrola granic, edukacja i szkolenia,
  • szczególne ryzyko w zakresie przejrzystości - dotyczy niektórych systemów AI, dla których wprowadzone zostaną konkretne wymogi w zakresie przejrzystości, tzn. że użytkownicy powinni mieć świadomość wejścia w interakcję z AI w celu minimalizacji ryzyka manipulacji,
  • minimalne ryzyko - wszystkie pozostałe systemy AI.

Ponadto w projekcie uwzględniono ryzyko systemowe, które może wynikać z wykorzystywania modeli sztucznej inteligencji ogólnego przeznaczenia (Gen AI).

Swoim zakresem projekt rozporządzenia obejmuje m.in. następujące aspekty:

  • zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania AI w UE,
  • zakazane praktyki w zakresie AI,
  • szczególne wymogi dotyczące wprowadzania do obrotu systemów AI wysokiego ryzyka, w tym w zakresie przeprowadzenia oceny skutków praw podstawowych,
  • szczególne wymogi dostawców modeli Gen AI
  • przepisy dotyczące monitorowania AI po jego wprowadzeniu do obrotu i nadzoru nad rynkiem,
  • kary za naruszenie przepisów.

Rozporządzenie, po przygotowaniu ostatecznej wersji tekstu rozporządzenia i zatwierdzeniu jego przez Parlament Europejski i Radę, zacznie obowiązywać dwa lata po jego wejściu w życie. Wyjątek od tego stanowić będą przepisy szczegółowe, tzn. zakazy będą obowiązywały już po 6 miesiącach, a przepisy dotyczące sztucznej inteligencji ogólnego przeznaczenia – po 12 miesiącach.

Następne kroki

Z uwagi na rosnący udział i poziom skomplikowania wykorzystywanych systemów sztucznej inteligencji, nacisk na właściwy governance i przestrzeganie zasad etycznych będzie rósł.

Wczesne rozpoczęcie analizy wpływu gotowości i dojrzałości systemów, procesów, mechanizmów kontrolnych i innych komponentów ładu organizacyjnego może pomóc w planowaniu przyszłych inwestycji i ograniczeniu kosztów związanych ze zbyt późnym wdrażaniem koniecznych zmian, koniecznych np. pod względem zapewnienia zgodności z przepisami unijnymi. Warto przy tej okazji odpowiedzieć sobie na poniższe pytania w danym kontekście:

  • Dane: Czy organizacja posiada zasób danych lub dostęp do danych o jakości odpowiadającej celom systemu AI? Czy Twoja organizacja posiada odpowiednie mechanizmy zarządzania danymi wejściowymi i kontrolą wyboru zestawu danych?
  • Modele i algorytmy: Czy w Twojej organizacji istnieje nadzór nad rozwojem modelu? Czy proces i wyniki są przejrzyste? Czy wzięto pod uwagę ryzyko dotyczące stronniczości algorytmu?
  • Wyniki i decyzje: Czy istnieje proces ciągłej weryfikacji wyników modelu pod kątem zapewnienia dokładności i zgodności z pierwotnym jego celem?
  • Nadzór i monitorowanie: Jakie organy nadzoru są zaangażowane w zarządzanie AI? Jakie działania monitorujące są podejmowane?
  • Uczenie maszynowe: Czy kierownictwo ma pewność co do procesów i metod uczenia maszynowego na wszystkich jego etapach?
  • Wpływ na biznes i sprawozdawczość: Modele danych wpływają na sprawozdawczość finansową, decyzje operacyjne i interakcje z klientami. Czy Twoja organizacja jest na to gotowa?

Zapisz się na newsletter PwC Retail Platform, aby na bieżąco dostawać najważniejsze analizy z sektora handlu detalicznego i dóbr konsumpcyjnych!

 

Polecane artykuły

Buduj przewagę konkurencyjną kompleksowo zarządzając ryzykiem

Wprowadź raportowanie na wyższy poziom

Komisja Europejska opublikowała projekt Rozporządzenia ws. Zarządzania Danymi (Data Governance Act)

Studium przypadku. Data-driven organisation

28. kwiecień 2024 23:16