Przejdź do Treści

Efektywne poruszanie się po bazach wiedzy: Potęga Gen AI i Snowflake Cortex AI

Dawid Benski
7th October 2024

Click here for English version

Większość firm, przechowuje tysiące stron dokumentów które są niezbędne w pracy zespołowej. Bazy danych szybko się rozrastają i ciągle ewoluują, co stwarza wyzwanie, jakim jest odnalezienie w nich odpowiednich informacji.

Pomimo starannej dokumentacji, czy też stosowaniu rozwiązń polegających na indeksowaniu treści, dotarcie do tego, czego szukamy, staje się żmudną operacją – musimy albo znać lokalizację danego dokumentu, albo szukać po dokładnych słowach kluczowych.

 Case study jednego z naszych klientów

U jednego z klientów Capgemini, zespół budujący i obsługujący nową platformę  danych był zasypywany masą pytań ze strony niedoświadczonych użytkowników i użytkowniczek, co poważnie zmniejszało jego zdolności do dalszego rowijania tej platformy i dotrzymania ustalonych terminów na wprowadznie nowych funkcjonalności.

Pokrótce wyjaśnię, na czym polegała obsługa typowego zapytania, pochodzącego od osób korzystających z  platformy:

  1. Klient kieruje pytanie do zespołu obsługującego platformę.
  2. Dedykowana osoba z zespołu platformy przegląda dostępne dokumenty Wiki i szuka odpowiednich informacji.
  3. Kilka minut lub nawet kilka godzin później, osoba z obsługi przekazuje informacje (link) do osoby pytającej.
  4. Odpowiedź może być niejasna, co powoduje zadanie kolejnego pytania.

Dodam, że wiele pytań było podobnych lub wręcz powtarzało się.

Wraz ze wzrostem ilości osób korzystających z platformy, rośnie tygodniowy nakład pracy poświęcony wsparciu klientów i przewiduje się, że do końca 2024 roku osiągnie on 2,5 “FTE” (etatów) stale zajmujących się tym zadaniem. Ponadto czas odpowiedzi na prośby dotyczące wsparcia jest zbyt długi, co dodatkowo prowadzi do spadku zadowolenia klientów z obsługi.

Rozmawiaj ze swoimi danymi za pomocą Gen AI

Klient wykorzystywał kilka technologii chmurowych, w tym Snowflake, jako główne rozwiązanie w zakresie baz danych i hurtowni danych. Eksperci Capgemini szybko dostrzegli technologię Snowflake Cortex AI jako klucz do stworzenia nowoczesnego rozwiązania, które w przyszłości rozwiąże problemy klienta związane z kosztami operacyjnymi obsługi zapytań na jego platformie.

Jak zmniejszyć koszty operacyjne i jednocześnie przenieść interakcje z klientami na nowy poziom?

  1. Przejdź bezpośrednio do chatbota i zadaj pytanie.
  2. Nadal masz pytanie? Zadaj kolejne.
  3. Chatbot nie potrafi odpowiedzieć na twoje pytanie? Skontaktuj się z odpowiednią osobą z zespołu platformy.

Z takim pomysłem Capgemini przystąpiło do wdrożenia chatbota opartego o Gen AI, który mógłby efektywnie odpowiadać na pytania klientów. Chatbot, wspierany przez obszerne repozytoria wiedzy firmy, zapewniał, że dostarczane odpowiedzi były dokładne i jasne. Dodatkowo, chatbot odnosił się do źródłowego linku dokumentacji Wiki jako części swoich odpowiedzi, ułatwiając znalezienie potrzebnych informacji oraz niejako potwierdzając ich poprawność.

Takie rozwiązanie dostępne 24 godziny na dobę sprawiło,  że klienci mogli uzyskać pomoc o każdej porze dnia i nocy.

Wykorzystując moc Cortex AI i Gen AI opierających się na Retrieval-Augmented Generation (RAG), Capgemini zrewolucjonizowało sposób obsługi wsparcia klienta.

Rzut oka na architekturę

Architektura RAG zaproponowana przez Capgemini dla chatbota Cortex AI składała się z trzech typów usług:

  • Cortex AI Functions dla wsparcia large language model (LLM): EMBED_TEXT_768, VECTOR_L2_DISTANCE, oraz COMPLETE).
  • Snowpark Container Services dla interfejsu użytkownika.
  • Tabele Snowflake jako tzw. “vector store” (z natywnym wsparciem typu “vector”).

Wyjaśnienie podstawowych terminów:

  • RAG to podejście architektoniczne, które zwiększa możliwości dużych modeli językowych (LLM) poprzez włączenie systemu wyszukiwania informacji. System ten wyszukuje odpowiednie dane takie jak np.  dokumenty i dostarcza je jako kontekst dla LLM, poprawiając dokładność i trafność generowanych odpowiedzi.
  • Snowflake Cortex AI to inteligentna, w pełni zarządzana usługa w ramach Snowflake, która pozwala firmom wykorzystać moc sztucznej inteligencji (AI), umożliwiając użytkownikom i użytkowniczkom szybkie analizowanie danych i budowanie aplikacji AI bez potrzeby posiadania rozległej wiedzy technicznej.
  • Funkcje Snowflake Cortex AI to zestaw wstępnie przygotowanych funkcji LLM, które pozwalają na wykonywanie zaawansowanej analizy danych i zadań AI bezpośrednio na platformie Snowflake. Te funkcje obejmują możliwości takie jak uzupełnianie tekstu, analiza sentymentu i podsumowywanie tekstu.
  • Usługi kontenerowe Snowflake to w pełni zarządzana oferta kontenerowa, która pozwala na wdrażanie, zarządzanie i skalowanie aplikacji kontenerowych w ramach platformy danych Snowflake.

Wdrożenie chatbota Gen AI opartego na technologii Snowflake Cortex AI, pozwoliło klientowi na usprawnienie procesów wsparcia swojego klienta oraz na zmniejszenie kosztów operacyjnych. To innowacyjne rozwiązanie wykorzystujące moc Generatywnej Sztucznej Inteligencji (GenAI) sprawiło, że użytkownicy i użytkowniczki mogą łatwo nawigować po rozległych bazach wiedzy i bardzo łatwo znajdować potrzebne informacje.

Cortex Search

Opisałem sposób, w jaki Capgemini zbudowało narzędzie wyszukiwania dla podanego use case klienta. Niedawno wprowadzony serwis Cortex Search sprawił, że budowa takich rozwiązań stała się znacznie łatwiejsza. Cortex Search sam zarządza procesami embeddingu oraz wektoryzacji, stąd nie trzeba już samodzielnie oprogramowywać tych kluczowych elementów rozwiązań typu RAG a zamiast tego mozna korzystać z pełnego rozwiązania SaaS.  Dodatkowo, serwis ten podniósł jakość generowanych wyników dzięki zaawansowanemu rozwiązaniu wyszukiwania, łączącemu wyszukiwanie semantyczne i leksykalne. To skuteczne podejście jest niewątpliwie przełomem w budowaniu rozwiązań opartych na Gen AI RAG.

Capgemini and Snowflake

Współpraca między Capgemini a Snowflake pozwala na budowę zaawansowanych ekosystemów, w których firmy mogą bez wysiłku udostępniać i korzystać z udostępnionych danych. Capgemini i Snowflake współpracują nad opracowywaniem rozwiązań Generatywnej Sztucznej Inteligencji, które wykorzystują zaawansowaną technologię Snowflake Cortex do implementacji innowacyjnych rozwiązań kluczowych w nowoczesnym biznesie.

Ta strategiczna współpraca doprowadziła do tego, że Snowflake nadało firmie  Capgemini tytuł “2023 EMEA Global SI Partner of the Year”.

English version

Navigating knowledge bases efficiently: The power of Gen AI and Snowflake Cortex AI

Most companies that rely heavily on document stores for knowledge sharing and team collaboration often end up with many pages created by users.

The rapid growth and constant evolution of these knowledge bases pose significant challenges in finding relevant content. Despite diligent documentation, navigating to the pertinent information remains difficult – one either knows where the document is or the exact keywords to find it.

Real customer scenario

At one of Capgemini’s clients, a team operating and building a new data platform was entangled in customer support, reducing its ability to create new functionalities.

Allow me to briefly explain what a typical support request entailed:

  1. The customer raises a question to the platform team.
  2. A dedicated person from the platform team browses available Wiki documentation and searches for relevant information.
  3. Several minutes or even hours later, the person passes the information (a link) to the requestor.
  4. The answer may not be clear, prompting the need for another question to be asked.

The weekly effort spent on customer support is increasing, and it is projected to reach 2.5 “FTE” permanently occupied with customer support activity by the end of 2024, as the number of platform users grows. Moreover, the response time for support requests is too long, leading to a poor customer experience.

Talk to your data with Gen AI

The client uses several cloud technologies, including Snowflake, as the core database and data warehouse solution. Capgemini experts were quick to consider Snowflake Cortex AI technology as the key to creating a cutting-edge solution for tomorrow, addressing the client’s issues with operational costs.

Why not ramp down on operational costs and ramp up customer interactions to a new level like this?

  1. Go straight to the chatbot and ask the question.
  2. Still have a question? Ask another question.
  3. Is the chatbot not able to answer your question? Contact a relevant person from the platform team.

With this vision in mind, Capgemini set out to implement a Gen AI-based chatbot that could answer customer questions efficiently. The chatbot, powered by the company’s extensive knowledge repositories, ensured that the provided answers were accurate and relevant. Additionally, the chatbot referenced the source Wiki documentation link as part of its responses, making it easier for users to find the information they needed.

The solution worked 24/7, ensuring that customers could get help at any time of the day or night. This innovative approach aimed to reduce the burden on the customer support team and enhance the overall customer experience. By leveraging the power of Cortex AI and Retrieval-augmented generation “RAG”-based Gen AI, Capgemini was poised to revolutionize how customer support was handled, paving the way for a more efficient future.

High-level architecture

The RAG architecture Capgemini proposed for the Cortex AI chatbot consisted of three service types:

  • Cortex AI Functions for large language model (LLM) support: EMBED_TEXT_768, VECTOR_L2_DISTANCE, and COMPLETE)
  • Snowpark Container Services for retrieval front-end.
  • Snowflake tables as a vector store (native support of vectors as data types in Snowflake).

Let me explain some basic terms:

  • RAG is an architectural approach that enhances the capabilities of large language models by incorporating an information retrieval system. This system retrieves relevant data or documents and provides them as context for the LLM, improving the accuracy and relevance of the generated responses.
  • Snowflake Cortex AI is an intelligent, fully managed service within Snowflake that allows businesses to leverage the power of artificial intelligence (AI) that enables users to quickly analyze data and build AI applications without the need for extensive technical expertise.
  • Snowflake Cortex AI Functions are a set of pre-built LLM functions that allow users to perform advanced data analysis and AI tasks directly within the Snowflake platform. These functions include capabilities such as text completion, sentiment analysis, and text summarization.
  • Snowflake Container Services is a fully managed container offering that allows users to deploy, manage, and scale containerized applications within the Snowflake data platform.

By implementing a Gen AI chatbot based on Snowflake Cortex AI technology, evaluated by Capgemini, the client can streamline the customer support processes, reduce operational costs, and enhance customer interactions. This innovative solution leverages the power of AI to provide accurate and timely answers, ensuring that users can easily navigate through vast knowledge bases and find the information they need.

Cortex Search

I described the way Capgemini built a search tool for the client’s use case. The latest introduction of Cortex Search replaces the need for standalone vector tables and a self-managed embedding process with a fully managed RAG engine. This advancement not only streamlines development but also elevates the quality of outcomes with sophisticated retrieval and ranking techniques that merge semantic and lexical search. This effective approach is undoubtedly a game changer in building Gen AI RAG-based solutions.

Capgemini and Snowflake

The collaboration between Capgemini and Snowflake leverages Snowflake’s AI data cloud to enable businesses to unify and connect to a single copy of all data with ease. This partnership allows for the creation of collaborative data ecosystems, where businesses can effortlessly share and consume shared data and data services.

Capgemini and Snowflake are collaborating to develop generative AI solutions that leverage Snowflake’s advanced AI Data Cloud technology to drive innovation and enhance business outcomes across various industries.

This strategic relationship has led to Snowflake naming Capgemini the 2023 EMEA Global SI Partner of the Year.

Autor

Dawid Benski

Delivery Architect Director, Capgemini
Dawid jako Delivery Architect Director koncentruje się na Big Data i chmurze, pracując głównie dla sektorów takich jak telco i automotive. Ma doświadczenie w bezpośredniej pracy z klientami, a także w zdalnym zarządzaniu zespołem, zarówno w Niemczech, jak i Indiach.

    A brave new (generative) world – The future of generative software engineering

    Keith Glendon
    26 Mar 2024

    Disclaimer: This blog article explores potential futures in software engineering based on current advancements in generative AI. While the content presents a plausible vision, it cannot predict the future. Our purpose is to inspire software engineers, software companies and enterprises who are embracing the next generation of ‘product-centric’ business models driven by software to anticipate and embrace the transformative potential of generative AI with bold and forward-looking actions and strategies.

    The AI evolution: Transforming software engineering

    In the past year, the landscape of tech has seen unprecedented upheaval. Generative AI (GenAI) has catapulted data science, machine learning, and AI into the limelight, sparking conversations and at all levels of business and democratizing access to the power of AI.  From the boardroom to dining room tables around the world, there’s no question that the GenAI evolution will profoundly reshape humanity’s relationship with technology.

    Among the many impacts of GenAI, one of the greatest transformations underway is that of Software & Platform Engineering.  As a core capability for every product-centric enterprise in a world that runs on software, this critical domain is being reshaped before our eyes and the impact will be profound.  Every industry is experiencing disruption and reinvention. From software itself to AI-powered products and services, this paradigm shift will be felt.

    GenAI is taking these advancements to the next level with a new era of “Generative Software & Platform Engineering.” This concept elevates software to new heights, with visions of enabling it to adapt, scale, and evolve autonomously in response to a dynamic environment.

    Just as object-oriented languages and cloud concepts revolutionized software development, GenAI promises to unlock unprecedented possibilities for resilient systems that drive progress in the digital age. To survive, compete and thrive in this context, enterprises must not only adopt Generative AI – but must quickly evolve and mature their core Software & Platform Engineering capabilities.

    Unlocking the potential of generative software engineering: Lessons from the past, projections for the future

    The transformative journey of software engineering, from procedural development to object-oriented programming, to cloud and microservices, revolutionized how we build and maintain software. Generative Software Engineering is poised to drive an even greater leap forward. Fueling this evolution is Generative AI, a game-changer that empowers software entities to autonomously generate, test, deploy and maintain code.

    Inspired by the adaptability of living organisms, these entities will transcend the constraints of a traditional development lifecycle. Guided by human-defined principles, they will orchestrate their capabilities to evolve and optimize in real-time.

    The evolution of microservices architecture lays the foundation for Generative Software Engineering. By leveraging Generative AI, we can create Generative Microservices. Eventually, these autonomous entities will seamlessly rewrite themselves to meet fluctuating demands, enhance performance, and integrate with other services. This will lead to the emergence of perpetually optimized software systems that require minimal human intervention.

    Generative AI will act as a catalyst, propelling MACH (Microservices, API-first, Cloud-native, Headless) principles to new heights. It will enable the development of self-evolving, API-first software that can autonomously generate new APIs based on user behavior. Cloud-native systems will be empowered to seamlessly migrate across providers to optimize for both cost and performance.

    Generative AI will pave the way for “sense and respond” enterprises, where software platforms are inherently dynamic and responsive. This will empower businesses to create new business models that continuously adapt and thrive in the ever-evolving digital landscape.

    The human element – adopting and evolving alongside AI

    To meet the potential of this vision, realize its value and create a positive future for humans involved in software engineering will require a planned, considered transformation for the human beings involved in software engineering.  To effectively manage this road ahead, organizations need to have a vision and roadmap for adoption, acceleration and elevation of human skills, roles and value.

    Generative AI in its present form has the power to take on the role of ‘co-developer’ as the proliferation of coding assistants, generative SDLC tools and Gen AI powered utilities rapidly become integrated into IDEs and traditional software engineering toolchains.  These will quickly lead to increasingly autonomous agents that will essentially become ‘digital developers’ on human-AI development teams.  This first phase – already well underway – is focused on adoption for productivity, efficiency, and quality gains throughout the software development lifecycle.  As the technology evolves, tools mature, and adoption reaches a state of near ubiquity, we expect many organizations will struggle to cross the chasm between experimentation and maturity at scale. 

    On the other side of that chasm lies the realization of the vision and value of the Generative Software Engineering Era.  In this future, those organizations who have successfully made the transformative leap will see humans working in more creative, high-value roles that increasingly focus on the orchestration of Generative AI agents who do the heavy lifting of software engineering under the conceptual and value-oriented direction of human experience engineers.

    Traditional roles in the software engineering lifecycle will become more strategic and focused on faster iteration of product engineering lifecycles, accelerated value growth and oversight of product and platform quality.  Increasingly, platform engineering teams will focus on the supervision of adaptive product roadmaps that quickly respond to new user preferences, market opportunities and emergent business models. While much of the short-term focus is currently on the productivity and efficiency aspect of Generative AI’s potential – the far more powerful and exciting future lies in the new value it can unlock and the promise it holds to vastly expand the scope and impact that human beings have through building software in this new paradigm.

    Dynamic software co-creation

    Generative Software Engineering heralds a future wherein human ingenuity, human innovation and human goals and opportunities are the driving force behind dynamic creation of software products, platforms and services.  Future software products will take direction and orchestration from sophisticated software product orchestrators, highly-skilled in collaborative software creation in concert with autonomous software engineering agents. Guided by high-level objectives and constraints, these agents will autonomously generate code, perform testing, and deploy updates, much like a highly skilled developer.

    Not only will they respond to direct human instructions but in this new era, software products and platforms will evolve in real-time, driven by sophisticated analysis of user data, preferences,  interactions and market insights. Generative AI will enable software to self-optimize, self-configure, and even self-expand its features and capabilities in response to this analysis. This will lead to the co-creation of highly personalized user experiences, with software automatically adjusting such aspects as its interface, performance, and functionality to suit individual and organizational user needs and preferences.

    Foundations for success

    These prospects for the Brave New World of Generative Software Engineering are both incredibly inspiring and significantly daunting.  The rapid pace of change is driving an ever-widening gap between the future value and current realities for the great majority of enterprises.  At Capgemini, our experience suggests that every organization in the business of building software or adopting a platform & product-centric mindset as a strategic growth imperative must act now with commitment and bold vision to prepare for success in the age of Generative Software Engineering.  While the foundational building blocks are also evolving, our work with clients and in our own internal GenAI transformation has given us insight to some key domains of focus to jumpstart the transformation while bringing immediate value.  We highlight in the next section a set of critical success factors we believe will underpin a bright horizon of possibilities for Generative Software & Platform driven enterprises.

    Have a roadmap – Seldom do we wind up anywhere meaningful without plotting a course.  Plotting a wayfinding course implies a destination both sufficiently valuable and sufficiently defined to get there.  Perhaps nowhere is this concept more crucial than in the realm of Generative Software Engineering.  Our Point of View is that those enterprises who define an inspiring and powerful “North Star” for their unique Generative Software future and a considered roadmap to guide them ever in that direction will attain much greater success than those (the majority at present) who fail to drive their iterative experiments, ideation and use cases without a vision and dynamic roadmap to value.

    Employ Framework thinking – from innovation frameworks adapted to the world of Generative AI to Software Engineering methodology frameworks that guide increasing maturity, skillsets and roles, to technical frameworks for the industrialization of GenAI software product engineering at scale.  In the Generative AI world, things will become far more complex and possibly chaotic.  In light of such realities, a grounding in frameworks will be essential to scaling and accelerating value realization in building software.  This is why we highlight the importance of maturity in development and engineering practices.  Many enterprises remain in fractured states of evolution when it comes to software engineering.  Success in the Generative Era requires a product-centric, platform engineering rigor that will bring every organization value in itself and will position any enterprise for greater success with Generative Software Engineering.

    Transform end-to-end – a future-ready, Generative Software Engineering enterprise needs to think and act end-to-end, not in silos and pockets of process transformation and tool adoption.  At Capgemini, our own journey has a focus on prioritizing and realizing cohesive end-to-end Software Product Engineering capabilities over lots of shorter term PoC’s and use case experiments.  In short – we’re focusing on “quality over quantity” with ideation, innovation and uptake experiments, so we continue to lead the market in “quantity with quality” in software innovations for our clients who are serious about leading their industries with the aid of Generative Software Engineering.

    Hit the Human Element “Head On” – Traditional software engineering roles will be radically transformed in the coming years.  This will come with great challenges from organizational change dynamics to individual human anxieties to significant HR complexities. Alongside the challenges, it’s crucial to stay informed about the evolving regulatory landscape surrounding Generative AI and ensure compliance with relevant legal frameworks.

    The successful leaders of the Generative Era will forge clear paths to support their valuable human resources in evolving alongside AI, engaging them in creating the future, elevating their value through enablement, empowerment and training in everything from innovation skills to data engineering, from prompt engineering to creative experience engineering and orchestration of Generative Autonomous Agents.  Rather than asking ‘what are the productivity gains’ and seeking to translate those metrics into incremental efficiencies or profits, visionary enterprises should ask ‘what is our North Star vision and roadmap for human value development in the Generative Engineering Era’.  Then, make bold investments in people as opposed to reducing their numbers.

    Collaborate wisely – With a clear “North Star” vision and an enterprise-specific roadmap in mind, organizations should seek to build strong partnerships with technology and services providers who can bring thought leadership, proven assets and accelerators, skills leadership and flexible options for shared value.   The need for collaboration will only intensify as the landscape of Generative AI technologies continues to grow and evolve.  Partnerships will need to move past ‘where have you done it before and what’s your price’ and into a space of ‘who are the best partners to help me adapt and evolve through the volatility of this paradigm shift’ based on capabilities, depth of understanding and creativity in collaborative value creation.

    Conclusion: A future of co-creation and autonomy

    Generative Software Engineering is here, and every day we’re building an exciting – if daunting – future of unprecedented acceleration in the development of robust, scalable, and user-centric software products and platforms. Just as object-oriented languages and cloud architectures opened new horizons for software development, Generative AI will pave the way for a future where software not only serves but anticipates and evolves with human needs. In this future, the role of the software engineer evolves from creator to orchestrator, guiding intelligent systems that can generate, adapt, and innovate, marking a new chapter in the symbiotic relationship between humans and their technological creations.  At Capgemini, in collaborative partnership with visionary industry partners like Google and its enterprise GenAI stack powered by groundbreaking models like Gemini and dynamic Google Cloud services, we’re committed to unleashing human potential through technology for an inclusive and sustainable future.  We look forward to working with you to help you build yours.

    Capgemini at Google Cloud Next 2024

    Google Cloud Next brings together a diverse mix of developers, decision makers, and cloud enthusiasts with a shared vision for a better business future through technology. As a Luminary Sponsor, Capgemini is committed to elevating the event experience with opportunities to boost learning and engagement and get fresh insight into today’s riveting topics – including generative AI.

    Whether the aim is empowering businesses or their people to unlock the power of generative AI, Capgemini is at the forefront of this evolution. Our continuous work in this growing domain means we are equipped to help our partners capitalize on this unique technology and engineer use cases for enhanced and unprecedented customer experiences.

    Come by our booth #840 and let’s explore the possibilities of generative AI with live demos showcasing its potential for Cloud, Data/AI, and Software Engineering. Or reach out to us – we would love to hear your perspective on how we can get ready for what comes next.

    Author

    Budowanie aplikacji chmurowych opartych na AI: Co warto wiedzieć?

    Marek Matczak
    Jun 12, 2024

    W ostatnim czasie zespół Capgemini miał okazję stworzyć kilka aplikacji biznesowych wykorzystujących sztuczną inteligencję, również tę generatywną – zawdzięczającą swoją niezwykłą popularność chatowi GPT. W tym artykule dzielę się z Wami swoimi spostrzeżeniami, które okazały się niezwykle istotne w trakcie budowania takich rozwiązań.

    Kiedy mówmy o generatywnej sztucznej inteligencji, to niemal od razu myślimy o tzw. dużych modelach językowych (ang. Large Language Models, LLMs), które są wprawdzie jej najbardziej rozpoznawalnym, ale nie jedynym, elementem. Budowanie niezawodnych aplikacji opartych na sztucznej inteligencji wymaga holistycznego podejścia, w którym korzystamy z wyspecjalizowanych, najczęściej chmurowych, narzędzi AI. Co więcej, używamy ich w oparciu o najnowsze wzorce projektowe z obszaru AI, a także stosujemy sprawdzone w wielu projektach techniki inżynierii oprogramowania.

    LLMy: zaglądamy do środka

    Zakres wiedzy LLMów jest ograniczony i zależy od zbioru danych użytego w trakcie trenowania modeli. Podczas budowania aplikacji biznesowych niesie to ze sobą dwa podstawowe wyzwania: jak wzbogacić duże modele językowe o wiedzę specyficzną dla danego biznesu, np. o treści rozporządzeń dla pracowników oraz jak zapewnić, że zmiany w tych rozporządzeniach będą od razu widoczne w trakcie używania tych modeli. Pierwszym pomysłem, który się nasuwa, jest wytrenowanie własnego modelu od podstaw, względnie dotrenowanie modelu bazowego, z użyciem swoich danych i powtarzanie tego procesu, gdy konieczna jest ich aktualizacja. Te podejścia są jednak w większości przypadków niepraktyczne ze względu na ogromne koszty idące nawet w setki milionów złotych. Bardziej efektywnym rozwiązaniem jest metoda uczenia kontekstowego (ang. in-context learning). Polega ona na tym, że w zapytaniu wysyłanym do modelu, oprócz właściwego pytania, np. “Jaka jest procedura zgłaszania awarii sprzętu?”, wysyłamy również treść dokumentu opisującego treści procedur, w tym tej, o którą pytamy. W metodzie uczenia kontekstowego duże modele językowe nie wykorzystują zatem wiedzy pozyskanej w trakcie ich trenowania, ale używają zdolności do znaczeniowej analizy tekstu (zarówno dokumentu, jak i właściwego pytania). Co więcej, ta analiza odbywa się w trakcie generowania odpowiedzi, mówiąc kolokwialnie “w locie”. Ta metoda ma jednak również swoje ograniczenie. Jest nim rozmiar zapytania, czyli tzw. promptu, a co za tym idzie ograniczona ilość wiedzy, o jaką możemy rozbudować nasz model. Z tym ograniczeniem można sobie jednak poradzić. Jednym ze sposobów jest zastosowanie popularnego wzorca RAG (ang. Retrieval Augmented Generation), polegającego na umieszczeniu w prompcie tylko tych fragmentów dokumentów, które są istotne z punktu widzenia zadawanego pytania. Drugim sposobem jest… pozbycie się tego ograniczenia i użycie LLMu pozwalającego na ogromny rozmiar promptu idący w tysiące stron tekstu (np. Gemini 1.5 od Google).

    RAG: inteligentne wyszukiwanie = mniejszy rozmiar promptu

    RAG wykorzystuje możliwości kolejnych elementów z obszaru AI: zanurzenie (ang. embeddings) i wektorowe bazy danych (więcej o tych elementach w dalszej części artykułu). Kombinacja tych elementów pozwala na znalezienie dopasowania znaczeniowego między pytaniem, wracając do naszego przykładu: “Jaka jest procedura zgłaszania awarii sprzętu?”, a fragmentami dokumentów, które z dużym prawdopodobieństwem zawierają odpowiedź na to pytanie. Dzięki technice RAG znacząco ograniczamy rozmiar promptu oraz zwiększamy jakość generowanych odpowiedzi, która może być niższa, jeśli prompt zawiera nieistotne informacje, czyli tzw. “szum”.

    LLMy z rozszerzonym oknem kontekstowym

    Najnowsze LLMy pozwalają na zbudowanie promptu o rozmiarze odpowiadającym nawet ponad tysiącu stronom tekstu. To sporo. W wielu wypadkach rozmiar ten pozwoliłby na umieszczenie w prompcie np. wszystkich procedur firmy. Nie musimy wówczas implementować wzorca RAG. Zaraz, zaraz… Ale co ze wspomnianym wyżej „szumem”, który może przecież obniżyć jakość generowanych odpowiedzi? Okazuje się, że testy przeprowadzone na modelach z dużymi oknami kontekstowymi (inna nazwa na rozmiar promptu), zwane obrazowo szukaniem igły w stogu siana, dały bardzo obiecujące rezultaty i zdają się nie potwierdzać obaw związanych ze wspomnianym „szumem”: udało się w większości testów znaleźć przysłowiową igłę.

    Które podejście wybrać?

    RAG czy LLM z rozszerzonym oknem kontekstowym? W podjęciu decyzji może pomóc analiza kosztów obu rozwiązań. Koszt zapytania do LLMu zależy od wielkości promptu, ale w przypadku rozwiązania opartego na RAG musimy doliczyć koszt wektorowej bazy danych, obliczania zanurzeń oraz rozwiązania samego w sobie.

    Dodatkowym argumentem przy wyborze rozwiązania powinna być ocena jakości generowanych odpowiedzi. Jak to zrobić? O tym w dalszej części artykułu.

    Wykorzystanie kreatywności (lub jej ograniczenie)

    Jedną z najbardziej spektakularnych cech LLMów jest ich kreatywność. Szukasz inspiracji, gdzie pojechać na wakacje i jak zaplanować tam czas? LLM jest w stanie wygenerować odpowiedź w ciągu kilku sekund! Ale uwaga: ta odpowiedź może zawierać zmyślone lub nieprawdziwe informacje (halucynacje). Dokładnego przeciwieństwa, czyli ograniczenia halucynacji, a zamiast kreatywności – odpowiedzi bazującej na faktycznych dokumentach, oczekiwalibyśmy natomiast od wirtualnego asystenta odpowiadającego na wspomniane wcześniej pytanie: “Jaka jest procedura zgłaszania awarii sprzętu?” Jak to zrobić? Okazuje się, że LLMy mają parametry, takie jak temperatura czy top_k, które umożliwiają kontrolowanie tych aspektów. Na przykład ustawienie temperatury na 0 i top_k na 1 sprawi, że odpowiedzi będą bardziej faktyczne.

    Aby zwiększyć wiarygodność odpowiedzi, możemy dodać linki do dokumentów źródłowych, a nawet opatrzyć odpowiedź cytatami z tych źródeł. Możemy również poinstruować model (o tym jak to zrobić, w dalszej części artykułu), aby w razie, gdy nie można było znaleźć odpowiedzi w samym prompcie, nie „halucynował”, ale odpowiedział po prostu „nie wiem”. Warto wspomnieć przy tej okazji, że całkowite wyeliminowanie halucynacji z LLMów, które są modelami statystycznymi, a więc niedeterministycznymi, nie jest na ten moment możliwe. Należy ten fakt wziąć pod uwagę projektując rozwiązanie biznesowe. W niektórych wypadkach nie da się zupełnie wyeliminować człowieka w podjęciu decyzji biznesowej (ang. human in the loop).

    Wektorowe reprezentacje: cichy bohater

    Zanurzenia są wektorową reprezentacją znaczenia pojedynczego słowa czy fragmentu tekstu (ale również obrazu lub dźwięku). Ta „sucha” definicja nie oddaje jednak ogromnych możliwości zastosowania tego elementu sztucznej inteligencji w budowanych aplikacjach biznesowych. Mówiąc o znaczeniu mam na myśli jego cały kontekst z uwzględnieniem wielu niuansów (np. kulturowych). Zresztą najlepszym dowodem potwierdzającym te możliwości jest fakt, że zanurzenia są wykorzystywane w trakcie trenowania samych LLMów, a także za każdym razem, gdy wysyłamy do nich nasz prompt. Jakie mogą być potencjalne rozwiązania biznesowe z użyciem zanurzeń? Na przykład wyszukiwanie kontekstowe zamiast tradycyjnego bazującego na słowach kluczowych albo system rekomendacji produktów w oparciu o aktualny koszyk zamówień.

    Budując aplikacje biznesowe z elementami AI najczęściej zaczynamy od LLMa, ale może się okazać, że nie jest on w ogóle potrzebny, bo to właśnie wektorowe reprezentacje są rozwiązaniem naszego wyzwania biznesowego. Warto też sprawdzić w dokumentacji technicznej czy wybrany model wektorowych reprezentacji wspiera język tekstów danej aplikacji (np. opisy produktów).

    Wektorowa baza danych: znajdź podobieństwa

    W jaki sposób wyszukać podobne znaczeniowo fragmenty dokumentów albo – jak wspomniano wcześniej w metodzie RAG – znaleźć te zawierające odpowiedź na zadane pytanie? Z pomocą przychodzą wektorowe bazy danych, które umozliwiają przechowywanie wektorów, a wraz z nimi np. tekstów. Co więcej, produkty te umozliwiają efektywne przeszukiwanie wielowymiarowych przestrzeni wektorowych w celu znalezienia tych znajdujących się blisko siebie, co za tym idzie, odpowiadających im podobnych znaczeniowo tekstów.

    Jaką bazę wybrać?

    Jaki produkt bazodanowy wybrać? Choć na rynku jest sporo specjalizowanych produktów, np. Pinecone, Amazon Kendra albo Azure AI Search, rozważyłbym użycie tradycyjnej, relacyjnej bazy danych z rozszerzeniem wektorowym, np. PostgreSQL i pgvector. Szczególnie w początkowej fazie budowania aplikacji, kiedy nie znamy jeszcze dokładnych wymagań wydajnościowych, warto postawić na takie hybrydowe rozwiązanie, tym bardziej, że w ten sposób znacząco ograniczymy koszty chmury.

    Inżynieria Promptów: język AI

    Treść, którą wysyłamy do LLMa, czli tzw. prompt, może zawierać nie tylko samo pytanie, ale również instrukcje wraz dodatkowymi informacjami. Na przykład, w opisywanym wcześniej podejściu uczenia kontekstowego, prompt zawiera instrukcję, aby odpowiedzieć na pytanie w oparciu o załączone fragmenty dokumentów. Nie jest to niczym innym niż programowaniem w języku naturalnym! Na potwierdzenie tych słów warto zacytować tutaj Andreja Karpathy’ego, badacza i popularyzatora AI: The hottest new programming language is English. Tak jak w tradycyjnym programowaniu posługujemy się pewnymi wzorcami, tak i w tym swoistym języku AI takich potrzebujemy. Sztukę tworzenia promptów określa się mianem inżynierii promptów. Choć ten termin brzmi bardzo poważnie, nie trzeba być tutaj specjalistą. Według mnie podstawowe techniki inżynierii promptów powinien znać każdy, a ich nauczanie powinno zacząć się już w szkole podstawowej!

    Oprócz podstawowych technik mamy również zaawansowane, takie jak Chain-of-Thought czy ReAct. Ta ostatnia pozwala na złożone wnioskowanie angażujące wiele źródeł danych, zarówno wewnętrznych w danej organizacji, jak i zwnętrznych, np. Wikipedia.

    Jakość ma znaczenie: struktura ponad wszystko

    Jakość wygenerowanych przez LLM odpowiedzi w dużym stopniu zależy od jakości danych wejściowych. Formaty danych, takie jak Markdown, JSON czy HTML są ustrukturyzowane, np. są podzielone na rozdziały, w nich akapity, a w nich z kolei mogą być tekst czy tabele. Prompty tworzone w oparciu o takie ustrukturyzowane dane, ułatwiają LLMom zrozumienie kontekstu, a w konsekwencji generowanie sensownych odpowiedzi.

    Dane nieustrukturyzowane, np. pliki w formacie PDF, obrazy czy diagramy, mogą wymagać wstępnego przetwarzania (tradycyjnie lub z użyciem sztucznej inteligencji) lub zastosowania multimodalnych LLMów (np. akceptujących na wejściu obrazy), np. Gemini Pro (Vision) czy GPT-4o, aby poprawnie zrozumieć kontekst. Posłużmy się przykładem. Pewien dokument PDF zawiera, oprócz tekstu, złożony wykres ilustrujący trendy sprzedaży. Multimodalny LLM potrafi wygenerować słowny opis tego wykresu, który wraz z pozostałą częścią dokumentu może posłużyć do wygenerowania odpowiedzi na pytanie dotyczące sprzedaży.

    Aby poprawić jakość, warto pozyskać od użytkowników aplikacji informację zwrotną dotyczącą ich subiektywnej oceny trafności odpowiedzi. Przykładowa implementacja może mieć formę przycisków “lubię/nie lubię” czy formularza. Zebrane w ten sposób sugestie mogą posłużyć np. do doprecyzowania instrukcji w prompcie.

    Testowanie w erze sztucznej inteligencji

    Niedeterministyczny charakter LLMów oznacza, że powtarzając test dla tego samego wejścia możemy otrzymać za każdym razem nieco inną odpowiedź. Jak zatem testować takie aplikacje? Z pomocą znów przychodzi nasz “cichy bohater” – zanurzenie. Aby porówać oczekiwane odpowiedzi z tymi wygenerowanymi przez LLMy, wystarczy w obu wypadkach znaleźć wektorowe reprezentacje i porównać odległości między tymi wektorami. Wówczas nawet jeśli odpowiedź wyrażona jest w nieco inny sposób, ale nadal jest prawidłowa, można test uznać za pozytywny.

    W trakcie budowania aplikacji, szczególnie chatbotów, testowanie promptów i ich odpowiedzi jest niezmierne ważnym elementem. Pamiętajmy, że prompt jest w zasadzie programem napisanym w języku naturalnym, więc konsekwencje braku testów są podobne do nieprzetestowanego kodu źródłowego. W przypadku niedeterministycznych LLMów brak testów promptów ma jeszcze większy negatywny wpływ na stabilność i niezawodność aplikacji.

    Bezpieczeństwo: Tu nie ma kompromisów

    Elementy AI w aplikacjach nie są wyjątkiem I również wymagają dodatkowej uwagi z punktu widzenia bezpieczeństwa. Jeśli do LLMa wysyłamy w prompcie treści spoza aplikacji (np. wprowadzone przez użytkownika albo przysłane mailem) musimy je sprawdzić czy nie zawierają np. instrukcji aby ujawnić poufne informacje albo kierują rozmowę na tematy nie związane z przenaczeniem danej aplikacji (tzw. prompt injection). Podobnie z generowanymi odpowiedziami: należy sprawdzić czy te nie zawierają treści mogących wpłynąć negatywnie na reputację danej firmy. Na szczęście są na rynku narzędzia, zarówno komercyjne, jak i open source, które umożliwiają skutecznie wdrożyć te środki bezpieczeństwa.

    Miłego kodowania!

    Budowanie aplikacji chmurowych opartych na sztucznej inteligencji jest sporym wyzwaniem. Temu wyzwaniu można jednak podołać, jeśli pozna się elementy oraz narzędzia AI, a także zastosuje wzorce i dobre praktyki z tego obszaru. Właśnie przybliżenie tych ostatnich było celem mojego artykułu. Mam nadzieję, że moje spostrzeżenia pomogą w tworzeniu wydajnych, bezpiecznych i innowacyjnych rozwiązań opartych na sztucznej inteligencji. Miłego kodowania!

    Capgemini partnerem hakatonu QL future

    Marek Józef Kowalik
    Apr 10, 2024

    Capgemini zostało Partnerem hakatonu QL Future – wydarzenia, które przybliża tematykę pozytywnego wpływu obliczeń kwantowych na obszary zdrowia i bezpieczeństwa.

    W dniach 13-14 kwietnia br. w Poznaniu odbędzie się hackaton QL Future. To wydarzenie, którego celem jest zorganizowanie przestrzeni na burzę mózgów dla młodych ludzi oraz opracowania innowacyjnych pomysłów i rozwiązań związanych z kwestiami bezpieczeństwa i zdrowia. Capgemini Polska wraz z innymi firmami będzie wspierać PCSS (Poznańskie Centrum Superkomputerowo-Sieciowe) w organizacji tego wydarzenia. W tegorocznej edycji zespoły biorące w nim udział będą miały szansę pracować nad zadaniem jakie sformuuje grupa ekspertów i ekspertek z naszej firmy.

    Podczas hackatonu uczestnicy i uczestniczki będą mieli niepowtarzalną okazję wykorzystać moc obliczeniową pierwszego w Polsce komputera kwantowego.

    Hackaton stanowi kontynuację ubiegłorocznej, pierwszej edycji skupionej na rozwiązaniach dotyczących życia ludzi, naszej planety i klimatu. Capgemini również wtedy było jednym z Partnerów, odpowiedzialnych za organizację jednego z wyzwań i mentoring osób uczestniczących w imprezie. Poza tym przedstawiciele naszej firmy wchodzili w skład jury. Aby przybliżyć Wam to wydarzenie, poniżej przedstawiam podsumowanie ostatniej edycji.

    Podsumowanie QL Future 2023 – 27-28 Maj 2023:

    Hackaton składał się z pięciu wyzwań związanych z: adopcją infrastruktury pojazdów elektrycznych, redukcją emisji gazów cieplarnianych, analizą danych medycznych, audytem węglowym w łańcuchach dostaw oraz wpływem finansowym podnoszącego się poziomu mórz. Dostępne były dwie formy opracowywania rozwiązań: podejście techniczne lub koncepcyjne.

    Przez dwa dni, około 60 osób z różnym zapleczem zawodowym i wachlarzem doświadczeń, podzielonych na grupy pracowało nad jednym z zaprezentowanych wyzwaniań. Każdy z zespołów mógł wybrać sobie zadanie nad jakim będzie pracować w czasie hackatonu.

    Zespół Capgemini Quantum Lab sformułował i zaprezentował jedno z wyzwań dla uczestników i uczestniczek, związane z tematem „skutki finansowe wynikające z podnoszącego się poziomu mórz”, a także zorganizował godzinny warsztat wprowadzający biznesowy kontekst wyzwania oraz podstawy teoretyczne finansowego modelu ryzyka klimatycznego na komputerach kwantowych wraz z przykładową implementacją prostego modelu na syntetycznych danych. Część osób podjęła to wyzwanie i przygotowała własny model w oparciu o realne dane na podstawie zaprezentowanego przez Capgemini syntetycznego modelu ryzyka klimatycznego.

    Podczas hackathonu mentorzy i mentorki ze strony partnerów oraz zespołu PCSS byli do dyspozycji osób biorących udział w wydarzeniu, aby pomóc im we wdrażaniu teorii obliczeń kwantowych oraz ujęciu tego rozwiązania z biznesowego punktu widzenia. Wyzwania były skupione na różnorodnych obszarach, ale poszczególnym grupom w tym krótkim czasie udało się w imponujący sposób ukształtować i dopracować swoje rozwiązania.

    Zespół pracujący nad wyzwaniem rzuconym przez Capgemini zajął trzecie miejsce w części technicznej, a dwa uczestniczące zespoły, z samego Capgemini, stanęły na podium w ścieżce koncepcyjnej [6]. Pascal Bertin, Magdalena Baczkowska, Jakub Styszyński, Arkadiusz Janusz i Arkadiusz Kowalski zajęli trzecie miejsce ze swoją propozycją planowania ładowarek pojazdów elektrycznych z wykorzystaniem tzw. „Nurse Scheduling Problem” w wersji wyżarzania kwantowego. Michał Hordecki, Sofya Aksenyuk, Agata Wojciechowska, Wiktoria Bosiacka i Aleks Roszyk zdobyli drugą nagrodę za swoje rozwiązanie optymalizujące audyt emisji dwutlenku węgla [7].

    Jury składało się z ekspertów biznesowych z różnych dziedzin. Członkami komitetu technicznego byli Piotr Biskupski (IBM Security SME), Piotr Beńke (CTO i dyrektor ds. sprzedaży technicznej, IBM), dr Krzysztof Kurowski (zastępca dyrektora PCSS) i Piotr Rydlichowski (koordynator ds. technologii kwantowych, IBM). W skład komitetu koncepcyjnego weszli Michał Mikucki (Site Head, Capgemini Poznań), Agata Chudzińska (AI Manager w Blue.ai i Apollogic), Agata Kuźmińska (Prezes FIZP – Fundacja Green Future Institute dla województwa wielkopolskiego) i Paweł Borucki (CEO Centrum Zdrowia La Vie).

    Ponadto jury zauważyło, że wiele rozwiązań koncepcyjnych było wystarczająco szczegółowych z punktu widzenia algorytmicznego i można je było przedstawić również jako rozwiązania techniczne.

    Podejście techniczne skupiało się na wdrożeniu – podejściu do problemu z perspektywy algorytmicznej. Głównymi kryteriami tego podejścia była wykonalność i skalowalność rozwiązania, poziom przyjazności dla użytkownika, technologiczne zaawansowanie i efektywność pod względem zużycia energii. Podejście koncepcyjne skupiało się na zastosowaniu i komercjalizacji rozwiązania. Uczestnicy pracowali nad rozwiązaniami opartymi na analizie rynku ze zdefiniowanymi grupami docelowymi. Podejście to było oceniane pod kątem atrakcyjności, użyteczności i wykonalności, a także skalowalności i kompletności.

    Patrząc w stronę komercjalizacji technologii kwantowych w Polsce

    Hackaton QL Future był nie tylko świetną okazją do zdobycia doświadczenia przez ludzi pragnących rozwijać swoją wiedzę w obszarze kwantów, ale także dobrym momentem do rozmowy na temat zastosowań technologii kwantowych w Polsce. Dr Voica Radescu (kierownik IBM Quantum na region EMEA) otworzyła wydarzenie, przedstawiając podejście do obliczeń kwantowych, opowiadając o tym, jak i gdzie może ono mieć pozytywny wpływ na naszą planetę. Następnie przedstawiciele PCSS przedstawili znaczenie zarówno ścieżki technicznej, jak i koncepcyjnej.

    Michał Mikucki, Site Head Capgemini Poznań, będącym członkiem jury w części koncepcyjnej, podzielił się swoją wizją dotyczącą wagi wydarzenia:

    “Obliczenia kwantowe to jedna z nowych technologii, która jest bardzo obiecująca i przełomowa. Bycie twórcami lub przynajmniej wczesnymi adaptatorami rozwiązań w tej dziedzinie może mieć kluczowe znaczenie dla przyszłego biznesu. Jestem przekonany, że szerzenie wiedzy tutaj, w Poznaniu, ale także we wszystkich miastach, w których działa Capgemini, pomoże nam wykorzystać przewagę biznesową. W Capgemini innowacja jest wpisana w nasze DNA, dlatego musimy dbać o to, aby utrzymać wiodącą pozycję w technologiach takich jak obliczenia kwantowe.”

    Marek Kowalik, programista z Capgemini Quantum Lab, który mentorował uczestnikom hackatonu, podzielił się swoją opinią na temat prezentowanych rozwiązań:

    “Wyzwania hackathonu musiały być zaadresowane za pomocą dobrze uzasadnionych rozwiązań zawierających element kwantowy. Wymagało to znajomości algorytmów kwantowych, podstawowej wiedzy o branży dla podjętego rozwiązania i znalezienia przypadków użycia oraz implementacji/struktury, które by to wspierały. Zespołom udało się opracować rozwiązania o takiej jakości w zaledwie 24 godziny. Niektóre z nich były dość futurystyczne, inne bardziej pragmatyczne i wykonalne, ale wszystkie wykazały biegłość w rozwiązywaniu problemów branżowych i stosowaniu metod opartych na obliczeniach kwantowych. Ma to kluczowe znaczenie dla zamknięcia luki między teorią kwantową a wartością dodaną w biznesie.”

    Nota o organizatorach:

    PCSS jest ośrodkiem infrastrukturalnym „zapewniającym dostęp do światowej klasy e-Infrastruktury dla środowiska naukowego oraz badawczo-rozwojowego” [2]. Jednym z obszarów prac ośrodka jest informatyka kwantowa i komunikacja kwantowa [3]. 4 lutego 2022 PCSS dołączyło do IBM Quantum Network, uzyskując dostęp do centrum obliczeń kwantowych IBM i rozpoczęło współpracę „w celu opracowania technologii obliczeń kwantowych i ich zastosowań, w tym zaawansowanych rozwiązań w zakresie sztucznej inteligencji, technologii kosmicznych, metrologii i modelowania kryzysowego” [4] [5] .

    References:

    [1] QLFuture official site

    [2] PSNC official site

    [3] PSNC – quantum technologies

    [4] PSNC quantum press release 2022/02

    [5] Polish PSNC to Join IBM Quantum Network, Becoming First Hub in Central and Eastern Europe

    [6] QL Future winners announcement

    [7] QL Future final presentations stream

    Marek Józef Kowalik

    Junior Data Scientist, Quantum Developer

      Jak nie tworzyć CV?

      Michalina Żak
      Mar 5, 2024

      Każdy z nas był na tym etapie kariery: poszukiwanie pracy, przygotowywanie w pocie czoła swojego CV i dreszczyk niepewności. Z sercem na ramieniu aplikujemy na ogłoszenia o pracę. I nagle otrzymujemy powiadomienie – „przepraszamy, Twoja kandydatura nie będzie dalej rozpatrywana”. Wielu z nas w tej sytuacji odczuwa smutek, wstyd, zaczynamy się zastanawiać – może to ze mną jest coś nie tak, ponieważ rekruter_ka do mnie nie oddzwania?

      Wykorzystam moje doświadczenie w pracy w Capgemini aby powiedziec Ci, co mogłeś zrobić źle.

      Poznaj 5 wskazówek,  jak nie tworzyć CV.

      • Wygląd dokumentu– czarny (lub bardzo jaskrawy kolor), fantazyjna czcionka, brak struktry w dokumencie, błędy ortograficzne.

      Pamiętaj – osoba z działu rekrutacji otwiera Twoje CV bezpośrednio na swoim komputerze lub za pomocą specjalnych programów. Często w takiej sytuacji plik jest kompresowany więc pogarsza się jego jakość. CV staje się dla rekrutera kompletnie nieczytelne ponieważ często litery rozmywają sie na tle, ustawienia ekranu powodują, że ciężko jest przeczytać numer telefonu. Niestaranność z jaką przygotowałeś swoje CV świadczy o tym, że nie zależy Ci na rzetelnym wykonywaniu swojej pracy. Wysyłasz komunikat, że jesteś osobą niedokładną – rekruter lub rekruterka od razu odrzuci Twoje CV bez analizowania Twoich komeptencji.

      • Wykorzystanie w CV zdjęcia z wakacji, z ulubionym zwierzakiem, w wyzywającym ubiorze/makijażu.

      Dodanie zdjęcia do CV to świetny pomysł. Sprawia, że Twoja aplikacja lepiej zapadnie w pamięć, poprzez zapamiętanie nie tylko Twoich, ale i twarzy. Jeśli jednak nie masz profesjonalnego zdjęcia, lub takiego, które możesz wykorzystać do stworzenia oficjalnego dokumentu, to lepiej zrezygnuj z dodania swojego profilowego zdjęcia z mediów społecznościowych. Musisz to wiedzieć – CV jest dokumentem, który świadczy o Twoim profesjonaliźmie oraz umiejętnościach. Nawet najlepsze humorystyczne zdjęcie, jakie posiadasz sprawi, że osoba rekrutująca lub Twój przyszły manager czy managerka, uzna Cię za osobę niegodną zaufania, niedojrzałą lub nierzetelną i odrzuci Twoją aplikację.

      • Brak wypisanych umiejętności.

      Znasz język angielski – świetnie! W wielu firmach to podstawowa umiejętność i warto w swoim CV dodać informację o znajomości języków obcych. Wyjeżdzałeś wakacyjnie do pracy do Niemiec i ten język jest dla Ciebie fraszką? Dopisz komunikatywną znajomość języka niemieckiego! Pomagałeś w rodzinnej firmie, wystawiałeś faktury, kompletowałeś zamówienia? Świetnie! Korzystasz z programu Excel do tworzenia tabel, kontrolowania swoich wydatków – warto wpisać znajomość tego programu. Pamiętaj – CV jest reklamą Twojej osoby i warto wpisać tam wszystkie umiejętności i mocne strony, jakie posiadasz.

      • Brak lokalizacji, w której chcesz pracować.

      Większość firm zatrudnia pracowników do pracy w formie stacjonarnej, jednak w Capgemini Polska mamy możliwość pracowania w modelu hybrydowym. Jesteśmy w stanie połączyć zalety pracy w biurze z pracą w domu. Jednakże, jeśli nie dodasz informacji na temat swojej lokalizacji lub miejsca, w którym chcesz pracować rekruter może zrezygnować z podejmowania prób kontaktu z Tobą. W takiej sytuacji zostanie wybrana osoba, która jasno wskazała swoją lokalizację.

      • Jawna nieszczerość.

      Przygotowując CV ważne jest, aby wpisać do niego swoje doświadczenie i umiejętności, które naprawdę posiadasz. Bardzo często widuje się CV, które budzą nieufność. Przykładowo osoba, która twierdzi, że zna język „Germany” albo „Finlandzki” na poziomie biegłym wzbudza zdzwienie. Osoba zajmująca się rekrutacją będzie analizowała Twoje CV, więc aby uniknąć nieprzyjemności warto postawić na szczerość. Teraz wiesz już na jakie aspekty zwrócić uwagę przy tworzeniu CV. Wiosna jest już coraz bliżej, więc wielu z nas szykuje się do wiosennych porządków. Pomyśl czy nie szukasz zmiany – odkurz swoje CV i sprawdź ogłoszenia na stronie Capgemini Polska w zakładce „Kariera”. Może szukamy siebie na wzajem?

      Cyfrowe ziarna

      Zofia Święcicka
      Feb 27, 2024

      W Capgemini działania z zakresu CSR już na dobre są wpisane w kulturę organizacyjną i biznes. Pracownicy i pracownice naszej firmy od zawsze bardzo chętnie angażują się w działania społeczne. Najlepszym tego przykładem może być program grantowy „Inwestujemy w dobre pomysły”, który prężnie działa już od 12 lat. Osoby pracujące w Capgemini same zgłaszają projekty społeczne, a następnie realizują je w zespołach  wolontariackich.

      Gdy w marcu 2023 ogłoszona została XII edycja Programu Grantowego Capgemini Polska „Inwestujemy w dobre pomysły”, w mojej głowie pojawiło się bardzo konkretne hasło: neuroróżnorodność.  Koncepcja neuroróżnorodności idealnie wpasowuje się bowiem w nurt działań na rzecz włączania i różnorodności, które stanowią jeden z głównych filarów strategii CSR. Działania dążące do integracji i wyrównywania szans grup narażonych na wykluczenie miały dać młodym neuroatypowym osobom, posiadającym orzeczenie o potrzebie kształcenia specjalnego, szansę na przełamanie barier i stereotypów. Wiedziałam, że dzieci nieneuronormatywne często mają problem z kontrolą impulsów i regulacją emocji, co z kolei wpływa na ich niską samoocenę, frustrację i przekłada się na wyniki w nauce i relacje społeczne. Problem potęguje brak świadomości i zrozumienia kwestii neuroróżnorodności w społeczeństwie. W konsekwencji, dzieci objęte kształceniem specjalnym, często postrzegane są jako mniej zdolne i mają mniejsze szanse na rozwój swoich kluczowych umiejętności. Przystąpiłam więc do działania i zgłosiłam wniosek projektu wolontaryjnego o nazwie „Cyfrowe ziarna”, którego celem jest pokazanie dzieciom nieneuronormatywnym, że mają w sobie potencjał i mimo swoich ograniczeń, mogą w przyszłości być aktywnymi zawodowo osobami. Udało się – dostaliśmy dofinansowanie w ramach dużego lokalnego grantu. Wraz z Moniką Teresik, współliderką projektu, rozpoczęłyśmy przygodę z “rozsiewaniem cyfrowych ziaren”.

      Mimo ogromnej chęci wsparcia jak największej liczby dzieci i osób opiekujących się nimi, musieliśmy skoncentrować się na jednym beneficjencie. Do współpracy w projekcie zaprosiliśmy więc „Naszą Szkołę” w Katowicach, która jest niepubliczną placówką oświatowo-wychowawczą. Naszym zadaniem było wyposażyć dzieci w umiejętności niezbędne do funkcjonowania w dobie ery cyfrowej.

      Nasza misja rozpoczęła się wykładem Mateusza Kobryna, coacha działającego w obszarze neuroróżnorodności i inkluzyjności pt. „Edukacja i kariera otwarte na neuroróżnorodność”, jaki przybliżył problem dostępu do edukacji i konieczności wsparcia osób neuroroatypowych. Niezwykle pokrzepiające w wystąpieniu były historie osób, które osiągnęły liczne sukcesy pomimo trudności, z jakimi mierzyły się w dorosłym życiu.

      Warsztaty Kanban, to kolejny przystanek na drodze naszej wolontariackiej podróży, który został przygotowany z myślą o uczniach najmłodszych klas. Dzieci miały okazję poznać niezwykle ciekawą strategię organizacji czasu pracy, opartą na japońskiej metodzie, która była stosowana już w latach 40-stych XX wieku do sterowania procesami produkcyjnymi. A dziś, z naszą pomocą, uczniowie mogli poznać praktyczne narzędzie do zarządzania swoimi codziennymi zajęciami. Wierzymy, że dzięki ćwiczeniom i zabawie w wizualizację zadań na tablicy, nabyli nowe, cenne umiejętności: planowania, organizowania, inicjowania, podtrzymywania i realizowania pomysłów.  

      Z uwagi na fakt, że najlepszym sposobem na naukę jest zabawa, postanowiliśmy zainwestować w kreatywne warsztaty w pracowni H2O w Siemianowicach Śląskich. Pan Majsterklepka (Andrzej Lebek) w cudownie namacalny sposób umożliwił dzieciom obcowanie z fizyką – tu para buch, tu trybiki w ruch, światło cyk, a tam prąd robi myk! Fantastyczne unikatowe, specjalistyczne stanowiska doświadczalne zachęcały dzieci do bliższego zapoznania się z naukami ścisłymi.

      Kolejnym punktem programu były warsztaty robotyki z klockami LEGO. Pozornie banalne klocki, tak uwielbiane przez dzieci, w połączeniu z narzędziami programistycznymi, robią ogromne wrażenie! Nasi wolontariusze_ki wraz z młodymi konstruktorami_kami zgłębili tajniki techniki i inżynierii. Każdy kolejny klocek czy komenda w aplikacji rozwijały ich kreatywność, umiejętności krytycznego myślenia, komunikacji i pracy w zespole, a także rozbudzały ciekawość. Nie do opisania jest radość młodych osób, które dzięki swojej wytrwałości i skupieniu, podtrzymywanym przez świetną zabawę, tchnęli życie w roboty, powtarzające sekwencje ruchów i reakcji.

      Ostatnim elementem w naszym projekcie wolontaryjnym była praca z komiksem pt. „Róża, a co chcesz wiedzieć?”. Rozdaliśmy go dzieciom z nadzieją, że dzięki tym materiałom utrwalą się umiejętności, które ćwiczyli w części warsztatowej projektu. Wierzymy, że młodzi ludzie rozbudzą swoją ciekawość i przełamią lęk przed technologią. Książka porządkuje wiedzę z zakresu cyberbezpieczeństwa, uczy o tym, jak zachowywać się w mediach społecznościowych, przybliża tematykę robotyzacji, programowania, gier wideo, telefonii komórkowej i sztucznej inteligencji. Dlaczego komiks? Po pierwsze, kto nie lubi komiksów? A po drugie i najważniejsze, myślenie wizualne, to często bardzo mocna strona neuroroatypowych osób, zatem serwowanie informacji w ten właśnie sposób zwiększa szansę na przyswojenie wiedzy.

      „Cyfrowe ziarna” były niezwykłą przygodą zarówno dla dzieci, do których skierowaliśmy nasze działania, ale też i dla nas samych. Patrzenie na młode osoby, które mając szansę w praktyczny sposób doświadczyć nauki, przeistaczają się na naszych oczach ze słuchaczy-odbiorców w wynalazców-konstruktorów, było niesamowite! To utwierdza nas w przekonaniu, że zapewniając odpowiednie warunki edukacji i inwestując w nieszablonowe podejście do nauki, wpieramy rozwój dzieci i pełne wykorzystanie potencjału, jaki w nich drzemie. Cieszymy się, że nasz projekt spotkał się z takim entuzjazmem i pozytywnym odbiorem rodziców. Wiemy, że wsparcie dorosłych pozwala dzieciom na wiarę w to, że nie ma rzeczy niemożliwych i że przyszłość należy do nich – aktywnych zawodowo młodych ludzi.

      Dzięki projektowi wolontariatu pracowniczego mogliśmy odkryć nowe umiejętności, poznać ciekawych ludzi, spotkać się i wspólnie zrealizować warsztaty, które dały ogromną satysfakcję. Wiemy, że takie działania wywierają pozytywną zmianę w lokalnej społeczności. Realizacja projektu „Cyfrowe ziarna” przyniósł niesamowite efekty i nie byłoby to możliwe bez osób zaangażowanych. Szczególne podziękowanie należą się Monice Teresik, Małgorzaty Balandynowicz-Włoch, Michalinie Brzeskiej, Aleksandrze Barańskiej, Magdalenie Janusz, Dorocie Bieniek, Michałowi Baryłce, Pawłowi Popielskiemu, Katarzynie Juszkiewicz, Annie Michalskiej, Magdalenie Pernak, Rafałowi Łapińskiemu, Mateuszowi Białasowi i Sylwii Augustyn-Bas.

      Świąteczna magia w działaniu – podsumowanie akcji charytatywnej “o choinka!”

      Capgemini
      Dec 12, 2023

      W obliczu zbliżających się Świąt, w Capgemini Polska nie zapomnieliśmy o najważniejszym aspekcie tego magicznego okresu – współdzieleniu radości z tymi, którzy jej najbardziej potrzebują. W ramach corocznej akcji “O Choinka!”, zorganizowaliśmy inspirującą zbiórkę prezentów i darów dla dzieci z ośrodków pomocowych, sprawiając, że uśmiech zagościł na twarzach 391 dzieci.

      Jak wyglądała akcja w 2023 roku?

      Już od początku listopada we wszystkich biurach Capgemini w Polsce zachęcaliśmy pracujące u nas osoby do włączenia się w działania charytatywne. Dokładnie 391 dzieci z domów dziecka, hospicjów i placówek pomocowych napisało do naszej firmy listy ze swoimi marzeniami na Święta.

      W ramach inicjatywy “O choinka” nasi pracownicy i pracownice mogli zdecydować się na zakup prezentu wybranemu dziecku lub tzw. prezenty zbiorowe, czyli dedykowane większym grupom maluchów lub placówkom.

      Śmiało można powiedzieć, że w tym roku nie brakowało wyjątkowego zaangażowania wielu osób. Przykładowo zespół programistów przygotował specjalną aplikację, ułatwiającą pracującym u nas osobom wybór prezentów, które chcieliby przekazać. W rezultacie, przez cały listopad do recepcji biur Capgemini z całej Polski napływały pięknie zapakowane prezenty, które trafiły do wybranych miejsc. Po zakończeniu zbiórki na początku grudnia z pomocą wolontariuszy i wolontariuszek prezenty zostały przewiezione do wspieranych ośrodków. Dzieci otworzą je wspólnie w Wigilię Bożego Narodzenia.

      Obdarowane placówki  w tym roku to:

      • Dom Dziecka w Kórniku Bninie
      • Centrum Wspierania Rodzin Swoboda w Poznaniu
      • Fundacja Wrocławskie Hospicjum dla Dzieci
      • Dom im. J. Korczaka — Regionalna Placówka Opiekuńczo-Terapeutyczna w Gdańsku
      • Hospicjum dla Dzieci im. Małego Księcia w Lublinie
      • Placówka Wsparcia Dziennego Horyzont w Żorach
      • Dom Dziecka im. Janusza Korczaka w Warszawie
      • Centrum Placówek Opiekuńczo-Wychowawczych Parkowa w Krakowie
      • Rodzinny Dom Dziecka w Kaletach

      Warto dodać, że poza paczkami, które przekazaliśmy pojedynczym dzieciom, inicjatywę dopełniły aż 53 wyjątkowe prezenty zbiorowe w postaci klocków Lego, lalek, ubrań oraz sprzętów codziennego użytku, takich jak zestaw garnków, walizki, koce, pościele czy innych, jak roczne subskrybcje VOD.

      Capgemini przeprowadziło także zbiórkę niezbędnych przedmiotów i produktów dla placówek, obejmującą suchy prowiant, słodycze, artykuły higieniczne, środki czystości, kosmetyki i wiele innych. Takcja pokazała siłę zaangażowania i empatii osób pracujących w Capgemini, których wspólny wysiłek stworzył magiczne Święta dla wielu dzieci.

      Wyniki akcji “O Choinka!” w 2023 roku to nie tylko prezenty i dary, lecz również obraz solidarności i troski o tych, którzy potrzebują wsparcia. Capgemini Polska potwierdza, że prawdziwa magia Świąt tkwi w dzieleniu się i dawaniu radości innym.

      Saving one piece of the world: 
      how public sector leaders are promoting biodiversity

      Hinrich Thölken
      Dec 11, 2023

      The diversity of life around us adds immeasurably to our well-being. Unfortunately, the importance of biodiversity often gets overshadowed.  

      With the battle against climate change demanding so much attention, many other environmental issues have landed on the back burner. This includes biodiversity and the drive to protect natural environments. Here’s the good news: compared to the complex, systemic problems governments often deal with, preserving biodiversity is often relatively straightforward. Through strategic, collaborative, and innovative initiatives, public sector organizations have a chance to achieve impressive successes. The benefits are visible every time we step outside, and they last for generations.

      The spirit is willing; the strategy is weak 

      A recent report by the Capgemini Research Institute revealed a striking disconnect between awareness and action. They surveyed 1,812 executives employed at organizations across North America, Europe, and Asia-Pacific, in the public and private sectors. 91% of government leaders are aware of the importance of biodiversity to the planet. But only 21% of public sector organizations have a biodiversity strategy. This gap opens the door to five categories of risk: 

      • Operational – a lack of biodiversity can bring tangible losses, such as through a lack of pollinators 
      • Reputational – consumers today put a premium on ethical behavior 
      • Legal – including future legal risks, as standards and regulations progress 
      • Financial – all of the above have a material impact on the bottom line 
      • Societal – none of these risks are felt in isolation 

      So how do we move beyond discussion, into the world of action?

      Actionable steps for preserving biodiversity 

      Leaders in the private and public sector will approach biodiversity differently, but their goals are ultimately the same. In each case, it pays to have a general strategy in place, which will serve as a launchpad for specific projects. The strategy should focus both on preserving native species and habitats, and on promoting sustainable resource utilization. This is also the time to consider collaborative allies – communities, scientists, business leaders and different levels of government who will help exchange knowledge, resources, and innovative solutions. 

      Also crucial is a clear data and analysis plan. An effective biodiversity strategy will be quantifiable. Keep in mind that mitigation projects (ie, minimizing the negative impact of a venture), will require different metrics than improvement projects (creating new spaces, bringing back a lost species.) Data ecosystems are immensely valuable here, as they enable leaders to compare similar projects across regions and enable better predictions. 

      Four ways the public sector can help 

      Government can drive biodiversity goals in several ways. Regulation is the most obvious, but it’s only one tool. Procurement is another – government can selectively do business with companies that hold themselves to higher standards. Public sector workers can also be supportive in collaborative efforts, bringing together the many individuals and groups that help a project succeed. Finally, governments can provide tools that support biodiversity goals. The UK’s Biodiversity Net Gain Calculator helps developers, businesses and citizens understand how a proposed action will affect the local biodiversity. Other organizations such as The Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services (IPBES) provide resources to help public sector leaders better understand and preserve biodiversity and ecosystem services. 

      When governments take the initiative, the results are striking. Let’s look at a few governments that have developed a biodiversity strategy, and at the transformative impact of their biodiversity policies. 

      The return of beavers in Scotland 

      400 years ago, the last Scottish beavers were hunted to extinction. The Scottish Beaver Trial changed that, and became a sterling example of local biodiversity conservation. This project – a collaboration between the Scottish Wildlife Trust and the Royal Zoological Society of Scotland – has successfully established a population of beavers in the Knapdale Forest in Argyll.  

      In addition to the growth of the beaver population and wetlands, collaboration among the government and community has also grown. What began small has blossomed into a network of over 50 stakeholder organizations, who together have worked out a plan to support beavers for the next 20 years.  

      The Green Roof Initiative in Switzerland

      The biodiversity strategy in Basel, Switzerland, is on a different level. The city now mandates the installation of green roofs on all new flat-roofed buildings, providing unique habitats for various flora and fauna and contributing to the creation of an ecological network across the city. This initiative also combats rising temperatures by reducing heat island effects, while simultaneously managing stormwater and improving air quality. In the last fifteen years more than 1 million square meters of rooftops have gone green, in this unique illustration of biodiversity and urban planning coming together. 

      A detailed view of the desert 

      Last, but far from least, a project we’re proud to have collaborated on. Just last year, the Nevada Chapter of The Nature Conservancy collaborated with Capgemini to conserve the Mojave using AI. 

      Recently the Mojave has been under threat due to illegal off-road vehicle use. One solution – barriers – would appear simple at first glance, but with almost 47,000 square miles to cover, knowing where to place these barriers is essential. (Aside from the cost, barriers themselves pose a threat to many animals’ natural movements.) We solved this challenge with a specially developed tool employing computer vision, AI and machine learning to analyze satellite images, pinpointing off-road vehicle trails. This data is juxtaposed with the nesting zones of protected species, such as the Mojave desert tortoise. Through this initiative, The Nature Conservancy can now detect and quantify land degradation, strategically allocate resources based on location-specific needs, and implement safeguarding actions to conserve the territory. 

      Bridging the strategy gap 

      Biodiversity is integral to our health, happiness, and the health of our planet, and local governments and public sector organizations hold the power to bring about transformative change. By emulating successful models, adopting innovative strategies, fostering collaboration, and enhancing transparency, we can weave biodiversity preservation into the fabric of our organizational and societal ethos. Let’s bridge the biodiversity strategy gap, creating a resilient, sustainable future for all.

      Visit the biodiversity CRI report page to access more insights.

      Jak skutecznie wspierać inicjatywy prozdrowotne w organizacji?

      Capgemini
      Dec 12, 2023

      Każdego roku na świecie diagnozuje się ponad 2 miliony przypadków raka prostaty, rak jąder jest wykrywany u blisko 70 tysięcy mężczyzn. Szacuje się, że co roku raka piersi rozpoznaje się u blisko 1,7 miliona kobiet. Dziś wiemy, że rozpoznanie tych chorób we wczesnym stadium jest szansą na zdrowe życie – aby o tym przypominać, coraz więcej firm angażuje się we wspieranie międzynarodowych akcji informacyjno-edukacyjnych, takich jak Movember i Różowy Październik.

      Movember to listopadowa akcja prozdrowotna, której celem jest zachęcanie panów do badań, a także edukowanie ich i reszty społeczeństwa w zakresie zapobiegania chorobom takim, jak rak prostaty i jąder. Z kolei październik już od lat jest uznawany za Miesiąc Świadomości Raka Piersi – w tym, czasie okresie podejmowane są działania promujące profilaktykę, diagnostykę czy nowoczesne podejście do leczenia nowotworów piersi. Są to te momenty w kalendarzu działań komunikacji wewnętrznej, o jakich zdecydowanie powinna pamiętać każda organizacja przywiązująca wagę do zdrowia i dobrego samopoczucia i zdrowia zatrudnianych przez siebie osób.

      – Troska o dobrostan osób zatrudnionych na co dzień może przybierać różne formy, bo samo pojęcie wellbeingu jest bardzo szerokie. Dotyczy ono takich tematów, jak chociażby zdrowie fizyczne, odporność psychiczna, a także otoczenie i relacje społeczne. Z tego powodu firmy prowadzą zarówno programy wsparcia jak i działania edukacyjne. A inicjatywa taka jak chociażby znany globalnie Movember jest świetną okazją do tego, żeby mówić o profilaktyce zdrowia fizycznego i psychicznego. W Capgemini od lat prowadzimy kampanię, którą na potrzeby wewnętrzne nazwaliśmy Movember&More. Jest ona skierowana do wszystkich osób zatrudnionych w firmie, bez względu na płeć, a jej celem jest edukacja na temat chorób nowotworowych, budowanie świadomości w tym zakresie, a także – jeśli nie przede wszystkim – promowanie profilaktyki, w tym samobadania Troska o dobrostan osób pracowników i pracownic może mieć różne odsłony. Firmy dbają o odpowiednie warunki w miejscu pracy, czy oferują zatrudnianym osobom wsparcie w trudnych momentach życiowych. Innym ważnym aspektem działań wellbeingowych jest też uświadamianie zatrudnionych osób, jak samodzielne wykonywanie prostych badań profilaktycznych może dosłownie uratować ich życie. Z tego względu już po raz kolejny zaangażowaliśmy się w obchody Międzynarodowego Miesiąca Walki z Męskim Rakiem. Ale nie zapominamy też o zdrowiu kobiet i dlatego w listopadzie zainicjowaliśmy wewnętrzną kampanię Movember&More, w której łączymy przekazy prozdrowotne skierowane zarówno do panów, jak i do pań – mówi Iwona Szramik, Brand Communication Manager w Capgemini Polska.

      Edukacja na co dzień

      Capgemini Polska aktywnie włącza się w akcje prozdrowotne, czego przykładem jest kampania Movember&More. W tym roku w ramach wewnętrznej kampanii edukacyjnej Movember&More do samobadania zachęca nie tylko swoich pracowników, ale swoje komunikaty kieruje również do kobiet – ponieważ partnerstwo w dbaniu o zdrowie powinno obejmować obie płcie. Motywami graficznymi, które towarzyszą kampanii są więc wąsy – symbolizujące akcję Movember oraz wstążka – nawiązująca do tzw. Różowego Października. Poprzez proaktywne podejście do edukacji zatrudnianych przez siebie osób, firma chce podkreślić rolę, jaką każdy z nas może odegrać w zapobieganiu chorobom nowotworowym. Działania, podnoszące świadomość na temat profilaktyki raka, zachęcają zatrudnione osoby do włączenia się w promocję zdrowego trybu życia, a także do regularnych badań w ciągu całego roku.

      – Profilaktyka to nie tylko indywidualna odpowiedzialność, ale także zadanie całej społeczności. Poprzez kampanię Movember&More zachęcamy swoich pracowników i pracownice do dbania o swoje zdrowie i wspieranie siebie nawzajem, nie tylko w listopadzie czy październiku, ale i w pozostałych miesiącach. To ważna część kultury organizacji, wpisująca się w jedną z naszych siedmiu podstawowych wartości, czyli ducha zespołowego. Podejmowane przez nas akcje to też istotny element walki z tabu i przeciwdziałanie stereotypom – podkreśla Iwona Szramik.

      W tym miejscu warto wspomnieć, że wśród męskiej części polskiego społeczeństwa kwestia dbania o zdrowie psychiczne jest równie niechętnie poruszanym tematem, jak problemy związane ze zdrowiem intymnym. Z tego względu Capgemini Polska rozszerzyło swoje zaangażowanie w ogólnopolską inicjatywę Movember emitując specjalny odcinek podcastu “Let’s talk about wellbeing”, w pełni poświęcony mężczyznom. Została w nim podjęta dyskusja o stereotypach na temat mężczyzn, jakie krążą w społeczeństwie i prowadzą do tzw. kryzysu męskości, negatywnie wpływającego na zdrowie psychiczne i fizyczne.

      Dostęp do różnorodnej wiedzy i grywalizacja

      W ramach kampanii Movember&More pracownicy i pracownice Capgemini Polska otrzymywali elektroniczne ulotki edukacyjne, z informacjami na temat odpowiednich badań profilaktycznych, dostosowanych do różnych grup wiekowych, czy kalendarz badań, o których powinno się pamiętać w ciągu roku. Dodatkowo w biurowych toaletach zawisły plakaty edukacyjne, z których można dowiedzieć się więcej na temat samobadania – jednego z najważniejszych elementów profilaktyki raka jąder oraz piersi.

      Do działań wspierających promowanie zdrowych nawyków w zespołach, można też zaliczyć wszelkie formy grywalizacji – ten element Capgemini Polska również wykorzystało w listopadowej komunikacji. Mowa tu o konkursach fotograficznych (w których firma zachęca do wykorzystania motywu wąsów oraz wstążki) czy quizach, które nie tylko angażują, ale też zachęcają do dbania o zdrowie w przyszłości – wśród nagród znalazły się np. dodatkowe pakiety badań profilaktycznych.

      Aby zapewnić dostęp do rzetelnych informacji, zespół Capgemini Polska postanowił udostępnić wszystkim zatrudnionym osobom treści o tematyce onkologicznej, w formie webinarów fundacji Rak’n’Roll. Materiały te są dostępne są dla każdego na wewnętrznej platformie firmowej.

      Form włączania się w aktywności prozdrowotne, w tym tych kierowanych do mężczyzn, jest wiele. Warto pamiętać o tym, że każda firma, nawet najmniejsza, może „dołożyć swoją cegiełkę”. Kluczowe jest jednak dobranie wachlarza aktywności do kultury organizacji. Niedopasowane działania mogą wydawać się odbiorcom sztuczne, a przez to nie będą skuteczne. Tematyka związana ze zdrowiem jest bardzo wrażliwa i nieodpowiedni sposób działania, który nie wpisuje się w dotychczasowy styl komunikacji wewnętrznej może powodować, że ktoś poczuje się urażony. Działa to również w drugą stronę – zbyt poważna, ciężka narracja może wywołać efekt mrożący i niską partycypację zespołu w szczytnej czy ważnej inicjatywie.

      Platform engineering – opcja czy konieczność w nowoczesnych firmach IT?

      Jarosław Czerwiński
      Oct 9, 2023

      Dziś, gdy każda firma dąży do tego, by przyspieszyć pracę i wydawać kolejne wersje oferowanych produktów, jeszcze bardziej na znaczeniu zyskuje czas. We wpisie chciałbym poruszyć temat Platform Engineering. Jest to sformułowanie, które już jakiś czas istnieje, niemniej jednak jest jeszcze na tyle nowe, że warto o nim mówić w kontekście przyspieszenia prac zespołów IT.

      Miałem okazję pracować jako Devops w firmach, w których takie platformy nie istniały, jak również byłem członkiem zespołu Platform Engineering w jednym z największych banków europejskich. Zważywszy na zdobyte doświadczenia chciałbym podzielić się z Wami moimi spostrzeżeniami.

      Co to jest Platform Engineering?

      Platform Engineering (w skrócie PE); jak sama nazwa wskazuje; jest procesem projektowania i budowy wewnętrznej infrastruktury w firmie, który ma służyć przyspieszeniu pracy różnym zespołom. Zespołowi deweloperskiemu pomaga w rozwoju produktów zaś dla operacyjnego stanowi ułatwienie w zarządzaniu oraz skalowaniu środowiska. Dla SRE jest pomocny w utrzymywaniu ciągłości pracy produktów, monitorowaniu i reagowaniu na awarie.

      Mówiąc o miejscu w większości przypadków mam na myśli elastyczne ekosystemy chmurowe. PE to pewna abstrakcja, która jest udostępniana różnym zespołom w odmiennym zakresie.

      Po co mi Platform Engineering?

      Dzięki wprowadzeniu dodatkowej warstwy abstrakcji, możemy odciążyć poszczególne zespoły firmy eliminując niepotrzebną i nieefektywną pracę związaną z obszarami, na których pracownicy nie powinni się skupiać. Przykładowo zespół developerski nie musi na bieżąco śledzić nowości, które związane są z daną chmurą (chociaż oczywiście powinien rozwijać swoje umiejętności programistyczne). Nie jest konieczne, aby śledził nowinki dotyczące nowych funkcji monitorowania pracy wirtualnych maszyn lub sposobów wdrażania aplikacji. W ten sposób zwiększamy efektywność zespołów oraz częstotliwość dostarczania kodu.

      Dodatkową zaletą jest standaryzacja. Projektowanie solidnej platformy do budowy i wdrażania aplikacji wymusza stworzenie powtarzalnego schematu, który znacznie łatwiej jest modyfikować, wymieniać i utrzymywać w odróżnieniu od typowych rozwiązań On-Premises. Dokładne określenie zakresu odpowiedzialności, które narzuca platforma i dostarczenie dobrej dokumentacji pozytywnie wpłyną również na czas wprowadzania nowych członków teamu. Jest to bardzo istotny aspekt w czasach, gdy rotacja pracowników jest wysoka.

      Dzięki PE możemy zdjąć z zespołów developerskich niepotrzebne obowiązki związane z wyborem narzędzi do zadań, dbaniem o środowiska, sposobem przechowywania aplikacji, ich konfiguracją, uruchamianiem i ciągłym doskonaleniem się w technologiach chmurowych, które nie są bezpośrednio związane z ich dziedziną. Dzięki temu osoby pracujące nad projektem mogą całkowicie skupić się na rozwoju aplikacji co tym samym zwiększy ich wydajność i efektywność pracy. Ułatwi również skalowanie środowisk, poprawi bezpieczeństwo systemu i usprawni komunikację między poszczególnymi grupami.

      Wybór narzędzi

      W mojej opinii przy doborze narzędzi nie chodzi o to, aby wybierać tylko najnowsze rozwiązania. Nie będziemy w stanie wdrożyć najnowszych narzędzi, ponieważ stale pojawiają się kolejne – nowsze. Zamiast tego powinniśmy skupić się na synergii między nimi. Sztuką jest dobór narzędzi, które dobrze ze sobą współpracują, uzupełniają się wzajemnie i tworzą korzystne połączenie. Powinny być one także elastyczne i modularne, aby można było je względnie łatwo wymienić na nowe lub rozszerzyć ich możliwości w przyszłości.

      Podsumowując

      Platform Engineering jest niezbędnym elementem dla firm dążących do efektywności, skalowalności i stabilności w dziedzinie technologii. Odpowiednio zaprojektowane i zarządzane platformy pozwalają organizacjom dotrzymać kroku dynamicznie zmieniającym się potrzebom klientów. Mimo, że stworzenie takiej platformy jest bezsprzecznie dużym wyzwaniem, to z pewnością ten wysiłek zwróci się z nawiązką.

      Author:

      Jarosław Czerwiński

      Senior Software Engineer
      Ukończyłem Automatykę i Robotykę na Politechnice Śląskiej w Gliwicach. Przez lata pracy jako programista robotów przemysłowych w sektorze motoryzacyjnym zdobyłem doświadczenie, które przekształciłem w pasję do automatyzacji. Teraz jako Senior Software Engineer w Capgemini, specjalizuję się w automatyzacji procesów i chmurze AWS. Mam trzyletnie doświadczenie jako specjalista DevOps w sektorze bankowym, jestem członkiem AWS Community Builder i posiadam kilka certyfikatów z tej chmury. Kładę nacisk na prostotę i efektywność, wierząc, że mniej kodu oznacza mniejszą ilość błędów, która jest kluczem do sukcesu.