Przyspieszanie rozwoju dzięki interfejsowi wiersza poleceń Gemini

1. Przegląd

Ten moduł dotyczy korzystania z Gemini CLI, agenta open source opartego na AI w Google Cloud. Dowiesz się, jak używać interfejsu Gemini CLI do różnych zadań, w tym do analizowania istniejących baz kodu, generowania dokumentacji i testów jednostkowych oraz refaktoryzacji komponentów interfejsu i backendu aplikacji internetowej w Pythonie.

Czego się nauczysz

W tym module nauczysz się:

  • Jak używać interfejsu wiersza poleceń Gemini do wykonywania typowych zadań programistycznych.

Wymagania wstępne

  • W tym module zakładamy, że znasz środowiska konsoli Cloud i Cloud Shell.

2. Konfiguracja i wymagania

Konfigurowanie projektu w Google Cloud

  1. Zaloguj się w konsoli Google Cloud i utwórz nowy projekt lub użyj istniejącego. Jeśli nie masz jeszcze konta Gmail ani Google Workspace, musisz utworzyć je.

fbef9caa1602edd0.png

a99b7ace416376c4.png

5e3ff691252acf41.png

  • Nazwa projektu to wyświetlana nazwa uczestników tego projektu. Jest to ciąg znaków, który nie jest używany przez interfejsy API Google. Zawsze możesz ją zaktualizować.
  • Identyfikator projektu jest unikalny we wszystkich projektach Google Cloud i nie można go zmienić po ustawieniu. Konsola Cloud automatycznie generuje unikalny ciąg znaków. Zwykle nie musisz się tym przejmować. W większości ćwiczeń z programowania musisz odwoływać się do identyfikatora projektu (zwykle oznaczanego jako PROJECT_ID). Jeśli wygenerowany identyfikator Ci się nie podoba, możesz wygenerować inny losowy identyfikator. Możesz też spróbować własnej nazwy i sprawdzić, czy jest dostępna. Po tym kroku nie można go zmienić i pozostaje on taki przez cały czas trwania projektu.
  • Warto wiedzieć, że istnieje trzecia wartość, numer projektu, której używają niektóre interfejsy API. Więcej informacji o tych 3 wartościach znajdziesz w dokumentacji.
  1. Następnie musisz włączyć rozliczenia w konsoli Cloud, aby korzystać z zasobów i interfejsów API Google Cloud. Wykonanie tego laboratorium nie będzie kosztować dużo, a może nawet nic. Aby wyłączyć zasoby i uniknąć naliczania opłat po zakończeniu tego samouczka, możesz usunąć utworzone zasoby lub projekt. Nowi użytkownicy Google Cloud mogą skorzystać z programu bezpłatnego okresu próbnego, w którym mają do dyspozycji środki w wysokości 300 USD.

Konfiguracja środowiska

Otwórz czat z Gemini.

bc3c899ac8bcf488.png

Możesz też wpisać „Zapytaj Gemini” na pasku wyszukiwania.

e1e9ad314691368a.png

Włącz Gemini for Google Cloud API:

636114fa6e5f0abf.png

Na następnym ekranie włącz GCA.

8e234b2e282c4413.png

Kliknij „Start chatting” i wybierz jedno z przykładowych pytań lub wpisz własny prompt, aby wypróbować tę funkcję.

ed120d672468b412.png

Prompty do wypróbowania:

  • Wyjaśnij, czym jest Cloud Run, w 5 najważniejszych punktach.
  • Jesteś menedżerem produktu Google Cloud Run. Wyjaśnij studentowi, czym jest Cloud Run, w 5 krótkich punktach.
  • Jesteś menedżerem produktu Google Cloud Run. Wyjaśnij certyfikowanemu programiście Kubernetes, czym jest Cloud Run, w 5 krótkich punktach.
  • Jesteś menedżerem produktu Google Cloud Run. Wyjaśnij starszemu programiście w 5 krótkich punktach, kiedy warto używać Cloud Run, a kiedy GKE.

Gdy skończysz, zamknij okno czatu z Gemini Cloud Assist.

Więcej informacji o tworzeniu lepszych promptów znajdziesz w przewodniku po promptach.

Jak Gemini w Google Cloud korzysta z danych użytkowników

Zobowiązanie Google do ochrony prywatności

Google jako jedna z pierwszych firm w branży opublikowała zobowiązanie do ochrony prywatności w systemach AI/ML, w którym podkreślamy, że klienci powinni mieć najwyższy poziom bezpieczeństwa i kontroli nad danymi przechowywanymi w chmurze.

Dane, które przesyłasz i otrzymujesz

Pytania, które zadajesz Gemini, w tym wszelkie informacje wejściowe lub kod, które przesyłasz do Gemini w celu analizy lub uzupełnienia, nazywamy promptami. Odpowiedzi lub uzupełnienia kodu, które otrzymujesz od Gemini, nazywamy odpowiedziami. Gemini nie używa Twoich promptów ani swoich odpowiedzi jako danych do trenowania swoich modeli.

Szyfrowanie promptów

Gdy przesyłasz prompty do Gemini, Twoje dane są szyfrowane podczas przesyłania jako dane wejściowe do modelu bazowego w Gemini.

Dane programu wygenerowane przez Gemini

Gemini jest trenowany na podstawie kodu Google Cloud oraz wybranego kodu innych firm. Ponosisz odpowiedzialność za bezpieczeństwo, testowanie i skuteczność swojego kodu, w tym za uzupełnianie, generowanie i analizowanie kodu oferowane przez Gemini.

Dowiedz się więcej o tym, jak Google przetwarza Twoje prompty.

3. Opcje testowania promptów

Jeśli chcesz zmienić istniejące prompty, masz kilka opcji.

Vertex AI Studio to część platformy Vertex AI w Google Cloud, która została zaprojektowana specjalnie z myślą o upraszczaniu i przyspieszaniu tworzenia i używania modeli generatywnej AI.

Google AI Studio to internetowe narzędzie do tworzenia prototypów i eksperymentowania z inżynierią promptów oraz interfejsem Gemini API.

Aplikacja internetowa Google Gemini (gemini.google.com) to narzędzie internetowe, które pomaga odkrywać i wykorzystywać możliwości modeli AI Gemini od Google.

4. Pobieranie i sprawdzanie aplikacji

Aktywuj Cloud Shell, klikając ikonę po prawej stronie paska wyszukiwania.

3e0c761ca41f315e.png

Jeśli pojawi się pytanie o autoryzację, kliknij „Autoryzuj”, aby kontynuować.

6356559df3eccdda.png

W terminalu uruchom poniższe polecenia, aby sklonować lokalnie repozytorium Git.

git clone https://github.com/gitrey/calendar-app-lab
cd calendar-app-lab

Uruchom „Edytor Cloud Shell”.

18ca8f879206a382.png

Otwórz folder „calendar-app-lab”.

7cef847802b51038.png

Uruchom nowy terminal w edytorze Cloud Shell.

3336bea9c0e999b9.png

Środowisko powinno wyglądać podobnie do tego na zrzucie ekranu poniżej.

ae9475871b7d28a6.png

5. Wprowadzenie do interfejsu wiersza poleceń Gemini

Gemini CLI to agent AI o otwartym kodzie źródłowym, który integruje się z modelami Gemini od Google Cloud. Umożliwia programistom wykonywanie różnych zadań bezpośrednio z terminala, takich jak zrozumienie baz kodu, generowanie dokumentacji i testów jednostkowych oraz refaktoryzacja kodu. Główną zaletą interfejsu Gemini CLI jest możliwość usprawnienia przepływów pracy programistów dzięki wprowadzeniu możliwości generatywnej AI bezpośrednio do środowiska wiersza poleceń, co ogranicza przełączanie kontekstu i zwiększa produktywność.

Ten krok, czyli ustawienie zmiennej środowiskowej, nie jest wymagany w środowisku Qwiklabs. Przejdź do następnego kroku.

Jeśli w środowisku lokalnym używasz płatnej licencji Code Assist z organizacji, pamiętaj, aby ustawić projekt Google Cloud w terminalu. Więcej szczegółów

export GOOGLE_CLOUD_PROJECT="YOUR_PROJECT_NAME"

Sprawdź, czy jesteś w folderze głównym projektu:

cd ~/calendar-app-lab

Uruchom interfejs wiersza poleceń Gemini w oknie terminala:

gemini

Środowisko powinno wyglądać podobnie do tego na zrzucie ekranu poniżej.

Jeśli wykonujesz czynności w środowisku lokalnym, możesz włączyć integrację ze środowiskiem IDE.

W każdej chwili możesz to zmienić, uruchamiając /ide disable | enable.

eaee08868abb4ccd.png

Jeśli moduł jest uruchomiony w środowisku Qwiklabs, wybierz „Use Cloud Shell user credentials”.

W przeciwnym razie uwierzytelnij interfejs wiersza poleceń Gemini, uruchamiając to polecenie i wybierając „Login with Google”:

/auth

Po ponownym uruchomieniu interfejsu CLI pojawi się prośba o autoryzację aplikacji. W tym celu kliknij podany link.

390e8cbd9a32e8eb.png

Otwórz link i wykonaj czynności, aby zalogować się za pomocą danych logowania ucznia Qwiklabs. 24c1671a3c14b61d.png

Skopiuj kod weryfikacyjny i wróć do terminala, aby zakończyć proces, wklejając kod.

Aby sprawdzić metodę uwierzytelniania, uruchom to polecenie:

/about

f15a4036437b84d5.png

6. Zrozumienie bazy kodu

Za pomocą interfejsu wiersza poleceń Gemini możesz szybko poznać bazę kodu, prosząc go o streszczenie przeznaczenia plików lub katalogów oraz wyjaśnienie złożonych funkcji lub sekcji kodu. Dzięki temu deweloperzy mogą szybko wdrażać się w nowe projekty lub poznawać nieznane fragmenty istniejącego kodu bez konieczności ręcznego sprawdzania.

Aby dowiedzieć się więcej o bazie kodu, wyślij w interfejsie wiersza poleceń Gemini ten prompt:

Don't suggest any changes. Explain this codebase to me.

Sprawdź dane wyjściowe:

63b57c91fd0e90a8.png

7. Lokalne uruchamianie aplikacji

Interfejs wiersza poleceń Gemini może znacznie uprościć lokalne uruchamianie aplikacji w Pythonie, pomagając w automatycznym generowaniu niezbędnych plików konfiguracyjnych, takich jak requirements.txt czy podstawowy plik Dockerfile. Jest też doskonałym narzędziem do zarządzania zależnościami Pythona i rozwiązywania problemów, ponieważ może szybko wyjaśnić błędy śledzenia wynikające z brakujących pakietów lub konfliktów wersji, a często także zaproponować dokładne polecenie pip install, które rozwiąże problem.

Aby uruchomić aplikację lokalnie, wpisz w terminalu interfejsu Gemini CLI ten prompt:

Run this app locally

Aby rozpocząć składanie wniosku, postępuj zgodnie z instrukcjami:

d1fefa449b733c15.png

Kliknij link, aby wyświetlić podgląd aplikacji:

695fc8a1abab0aa7.png

Przykładowe dane wyjściowe:

e9f986d9088b4419.png

d2bb703195b4f99.png

8. Dodawanie dokumentacji

Interfejs wiersza poleceń Gemini jest przydatny do dokumentowania i komentowania, ponieważ umożliwia natychmiastowe generowanie ciągów dokumentujących funkcje lub klasy. Możesz też używać go do szybkiego dodawania wyjaśniających komentarzy w tekście do złożonych lub nieznanych bloków kodu, co znacznie poprawia przejrzystość i łatwość utrzymania bazy kodu.

Aby dodać komentarze do każdego pliku Pythona w aplikacji, użyj terminala Gemini CLI i wpisz ten prompt:

Add docstrings to all files

Zatwierdź sugerowane zmiany. Jeśli integracja z IDE jest włączona, możesz zaakceptować i kontynuować, korzystając z elementów interfejsu lub naciskając Enter w terminalu. Możesz też włączyć tryb automatycznego zatwierdzania(YOLO) za pomocą polecenia „ctrl+y”.

a41d76b77290cc10.png

Zaktualizuj plik .gitignore tym promptem:

update .gitignore and add __pycache__ folder

Przejdź do widoku Kontrola źródła i sprawdź wprowadzone do tej pory zmiany:

2c41f8b842573384.png

9. Dodawanie testów jednostkowych

Interfejs wiersza poleceń Gemini doskonale nadaje się do pisania testów jednostkowych, ponieważ umożliwia deweloperom generowanie funkcji testowych na podstawie sygnatury i logiki istniejącej funkcji, wraz z początkowymi asercjami i konfiguracją mocków. Deweloperzy muszą jednak sprawdzać i weryfikować wygenerowane testy, aby upewnić się, że obejmują one wszystkie wymagane przypadki brzegowe, a nie tylko proste ścieżki wykonania.

Aby wygenerować testy jednostkowe, użyj tego prompta:

Generate unit tests for @calendar.py

Po sprawdzeniu zmian zaakceptuj je.

6b59d78b83152a22.png

Zainstaluj nowe zależności i uruchom testy. Interfejs wiersza poleceń Gemini będzie obserwować, poprawiać i ponownie uruchamiać wygenerowany kod w pętli, dopóki testy nie zostaną zaliczone, a kod nie zostanie zweryfikowany.

ec1a4fbb2d340384.png

10. Sprawdzanie błędów

Interfejs wiersza poleceń Gemini może pomóc w sprawdzaniu błędów w logice, umożliwiając wyświetlanie promptów z prośbą o przejrzenie i analizę fragmentów kodu oraz identyfikowanie potencjalnych błędów logicznych, błędów o jeden i nieprawidłowej obsługi warunkowej. Wyjaśniając zamierzone działanie kodu i prosząc interfejs wiersza poleceń o wykrycie rozbieżności, możesz szybko wychwycić subtelne wady przed uruchomieniem kodu.

Aby sprawdzić, czy w logice konwersji nie ma błędów, wyślij w interfejsie wiersza poleceń Gemini ten prompt:

Are there any bugs in the conversion logic? Check if negative numbers are handled properly.

Sprawdź sugerowane zmiany i zaakceptuj je na czacie:

54ef65ded5462b34.png

11. Refactor UI

Interfejs wiersza poleceń Gemini może znacznie ułatwić refaktoryzację interfejsu, pomagając w przekształcaniu starszych wzorców interfejsu (np. komponentów klasowych) w nowocześniejsze paradygmaty funkcjonalne (np. hooki w React) lub sugerując ulepszenia strukturalne, które zwiększą łatwość utrzymania. Możesz go używać do analizowania i refaktoryzacji istniejącego kodu interfejsu w bardziej modułowe komponenty wielokrotnego użytku, co zapewnia bardziej przejrzysty i ujednolicony projekt interfejsu.

Przebuduj interfejs za pomocą biblioteki Bootstrap, przesyłając do interfejsu wiersza poleceń Gemini ten prompt:

Refactor UI to use Bootstrap library

Sprawdź i zaakceptuj zmiany:

16e6ca14e703127.png

Aby rozpocząć, uruchom aplikację. Jeśli jest już uruchomiony, po prostu załaduj ponownie stronę.

python3 main.py

Załaduj ponownie stronę i sprawdź zmiany.

b52a709e902040e3.png

54664e527bcd9227.png

Wdróż obsługę błędów, aby w przypadku wystąpienia problemów wyświetlać stronę błędu.

Implement error handling to display an error page when issues occur.

Aby zobaczyć aktualizacje, odśwież stronę.

Wyślij liczbę ujemną, aby potwierdzić stronę błędu.

82e16d4cf25933db.png

12. Refaktoryzacja backendu

Interfejs wiersza poleceń Gemini jest przydatny do refaktoryzacji backendu, ponieważ pomaga w migracji kodu starszych platform do nowoczesnych alternatyw lub w restrukturyzacji usług monolitycznych na łatwiejsze w zarządzaniu komponenty mikroserwisowe. Może analizować logikę po stronie serwera, aby sugerować ulepszone wzorce zapytań do bazy danych lub wydajniejsze projekty punktów końcowych interfejsu API, zapewniając utrzymanie lub zwiększenie wydajności i skalowalności.

Zmodyfikuj backend, aby zapisywać żądania konwersji w pamięci.

Store requests in memory and create a page to display conversion history. Add links on all pages to view the history.

Sprawdź i zaakceptuj zmiany na czacie:

19cfa20552fb3a01.png

Prześlij kilka próśb do aplikacji, a potem sprawdź stronę historii.

ac5639d18b341b0a.png

Sprawdź historię próśb o konwersję.

9ca680e193510640.png

Aby zaktualizować plik README.md o bieżący stan bazy kodu, wyślij ten prompt za pomocą interfejsu wiersza poleceń Gemini:

analyze README.md file and update it with latest codebase state

Sprawdź dane wyjściowe. Jeśli masz włączoną integrację z Cloud Shell, możesz uzyskać dostęp do zmian za pomocą elementu sterującego interfejsu lub z terminala.

13. Wbudowane narzędzia interfejsu wiersza poleceń Gemini

Interfejs Gemini CLI zawiera wbudowane narzędzia, których model Gemini używa do interakcji z lokalnym środowiskiem, uzyskiwania dostępu do informacji i wykonywania działań. Narzędzia te zwiększają możliwości interfejsu CLI, umożliwiając mu wyjście poza generowanie tekstu i pomagając w wykonywaniu wielu różnych zadań.

Wyślij ten prompt w interfejsie wiersza poleceń Gemini, aby wyświetlić dostępne narzędzia:

/tools

Sprawdź dane wyjściowe.

e5ef2d9b81f6c10.png

Interfejs wiersza poleceń Gemini inteligentnie wybiera najbardziej odpowiednie wbudowane narzędzia na podstawie podanego zadania, co umożliwia wykonywanie złożonych operacji dzięki zrozumieniu Twojej prośby i dostępnych funkcji. Więcej informacji o wbudowanych narzędziach

14. Polecenie inicjowania repozytorium interfejsu wiersza poleceń Gemini

Interfejs wiersza poleceń Gemini zawiera polecenie, które analizuje projekt i tworzy dostosowany plik GEMINI.md.

Aby wygenerować plik GEMINI.md, wyślij to polecenie za pomocą interfejsu wiersza poleceń Gemini:

/init

Sprawdź dane wyjściowe. To polecenie utworzy plik GEMINI.md, który zawiera podsumowanie celu projektu, technologii, instrukcji kompilacji i uruchamiania oraz konwencji programistycznych, które będą przydatne w przyszłości.

Aby dowiedzieć się, jakie instrukcje lub kontekst należy uwzględnić w pliku GEMINI.md projektu, zacznij od zapoznania się z plikiem GEMINI.md znajdującym się w gemini-cli repozytorium.

15. Niestandardowe polecenia interfejsu wiersza poleceń Gemini

Możesz usprawnić proces programowania i zachować spójność, używając niestandardowych poleceń w interfejsie Gemini CLI. Te polecenia działają jak osobiste skróty do najczęściej używanych promptów. Możesz tworzyć polecenia, które są specyficzne dla jednego projektu, lub udostępniać je globalnie we wszystkich projektach.

W repozytorium znajduje się kilka niestandardowych poleceń w folderze .gemini/commands.

Niestandardowe polecenie tworzenia diagramu

Wyślij ten prompt w interfejsie wiersza poleceń Gemini, aby wygenerować diagram przepływu żądań w formacie Mermaid.

Akceptować wywołania narzędzi, takie jak tworzenie folderu i zapisywanie pliku.

/diagram:new request flow for this app

Sprawdź dane wyjściowe.

a85a31f482a2cc7d.png

Jeśli chcesz wyświetlić podgląd diagramu, zainstaluj rozszerzenie Mermaid Chart z Marketplace.

22d4a002e2137b55.png

Otwórz plik i w menu kontekstowym wybierz podgląd.

bccf0ae8ac46415f.png

c669fcd96c34662.png

Niestandardowe polecenie tworzenia prezentacji

Wyślij ten prompt w interfejsie wiersza poleceń Gemini, aby wygenerować prezentację z najważniejszymi punktami w formacie Marp.

Akceptować wywołania narzędzi, takie jak tworzenie folderu i zapisywanie pliku.

/deck:new key points and details for this app

Sprawdź dane wyjściowe.

c9aa767796204c7c.png

Ten krok nie jest zgodny z Cloud Shell, ponieważ rozszerzenie Marp wymaga instalacji przeglądarki.

Zainstaluj rozszerzenie Marp dla VS Code z Marketplace, aby zapisać prezentację.

a9d339718cbfcd9.png

W przeciwnym razie otwórz wygenerowany plik w edytorze i na palecie poleceń wybierz „Marp: Export Slide Deck”.

91143fe81f7f5d71.png

Niestandardowe polecenie planowania wdrożenia nowej funkcji

Wyślij ten prompt w interfejsie wiersza poleceń Gemini, aby przekształcić interfejs.

Akceptować wywołania narzędzi, takie jak tworzenie folderu i zapisywanie pliku.

/plan:new refactor UI to use Materialize CSS

Sprawdź dane wyjściowe.

552dbe189a493f91.png

Zainicjuj proces refaktoryzacji interfejsu, przesyłając ten prompt za pomocą interfejsu wiersza poleceń Gemini na podstawie wcześniej wygenerowanego planu.

Akceptować wywołania narzędzi, takie jak tworzenie folderu i zapisywanie pliku. Tryb automatycznego zatwierdzania narzędzi(YOLO mode) możesz włączyć za pomocą opcji „ctrl+y”.

/plan:impl implement the plan to refactor the app

a3ceec7146f285e0.png

Uruchom lub ponownie załaduj aplikację i sprawdź dane wyjściowe:

fd0675f713d361e4.png

7352b93acabfb5be.png

16. Tryb nieinteraktywny interfejsu wiersza poleceń Gemini

Gdy uruchamiasz interfejs Gemini CLI w trybie nieinteraktywnym w potoku CI/CD, możesz zautomatyzować różne zadania, przekazując prompty i polecenia bezpośrednio do interfejsu CLI bez konieczności ręcznej interwencji. Umożliwia to bezproblemową integrację z automatycznymi przepływami pracy na potrzeby analizy kodu, generowania dokumentacji i innych zadań programistycznych.

Otwórz nowy terminal lub zamknij istniejącą sesję interfejsu Gemini CLI i wykonaj to polecenie.

gemini -p "Explain the architecture of this codebase"

Sprawdź dane wyjściowe.

Jeśli Twoje zadanie będzie wymagać zatwierdzenia narzędzi, możesz włączyć tryb YOLO za pomocą flagi -y.

gemini -p "Explain the architecture of this codebase and save the file in the markdown format in the docs folder" -y

Sprawdź dane wyjściowe.

Korzystając z Gemini CLI w trybie nieinteraktywnym, możesz znacznie zwiększyć możliwości automatyzacji potoków CI/CD, co przełoży się na bardziej wydajne cykle rozwoju i lepszą jakość kodu.

17. Tryb powłoki interfejsu wiersza poleceń Gemini

Modele LLM radzą sobie ze złożonymi zadaniami, ale w przypadku prostych działań bardziej efektywne są bezpośrednie polecenia. ! prefix umożliwia płynne przełączanie się między AI a tradycyjnymi interfejsami wiersza poleceń.

!ls

Sprawdź dane wyjściowe. Naciśnij Escape, aby wyjść z trybu powłoki.

18. Obsługa MCP w interfejsie wiersza poleceń Gemini

Interfejs wiersza poleceń Gemini może integrować się z systemami innych firm, takimi jak Jira, Confluence czy GitHub, za pomocą protokołu kontekstu modelu (MCP). Jest to możliwe dzięki integracji niestandardowych narzędzi serwera MCP, co pozwala interfejsowi Gemini CLI tworzyć i aktualizować zgłoszenia w JIRA, pobierać informacje ze stron Confluence, tworzyć żądania scalenia itp.

Aby utworzyć plik konfiguracyjny, uruchom to polecenie w terminalu lub użyj trybu powłoki.

echo '{
    "mcpServers": {
        "context7": {
            "httpUrl": "https://mcp.context7.com/mcp"
        }
    }
}' > .gemini/settings.json

Rozpocznij sesję interfejsu wiersza poleceń Gemini:

gemini

Sprawdź skonfigurowane serwery MCP:

/mcp

Sprawdzanie danych wyjściowych

c80d95544cc3436a.png

Wyślij prompta, aby przetestować skonfigurowany serwer MCP:

use context7 tools to look up how to implement flex grid in react mui library 

Zatwierdź narzędzia i sprawdź dane wyjściowe.

b51db5af09bd3f02.png

19. Przykładowa konfiguracja serwerów MCP w środowisku lokalnym

W środowisku lokalnym możesz skonfigurować wiele serwerów MCP, korzystając z tej konfiguracji.

{
    "mcpServers": {
        "Snyk Security Scanner": {
            "command": "snyk",
            "args": [
                "mcp",
                "-t",
                "stdio",
                "--experimental"
            ],
            "env": {}
        },
        "atlassian": {
            "command": "npx",
            "args": [
                "-y",
                "mcp-remote",
                "https://mcp.atlassian.com/v1/sse"
            ]
        },
        "playwright": {
            "command": "npx",
            "args": [
                "@playwright/mcp@latest"
            ]
        },
        "github": {
            "command": "npx",
            "args": [
                "-y",
                "@modelcontextprotocol/server-github"
            ],
            "env": {
                "GITHUB_PERSONAL_ACCESS_TOKEN": "******"
            }
        }
    }
}

Serwery MCP w tej konfiguracji przekształcają agenta Gemini CLI w dynamiczne narzędzie do tworzenia i współpracy, zapewniając standardowy dostęp do systemów zewnętrznych. W szczególności serwer Snyk Security Scanner umożliwia agentowi sprawdzanie kodu i zależności pod kątem luk w zabezpieczeniach bez opuszczania bieżącego obszaru roboczego, a serwer Atlassian łączy się z Jira i Confluence, dzięki czemu interfejs Gemini CLI może tworzyć, wyszukiwać i aktualizować problemy lub dokumentację za pomocą języka naturalnego. Serwer Playwright zapewnia też agentowi funkcje automatyzacji przeglądarki, umożliwiając mu poruszanie się po internecie i interakcje z nim w celu wykonywania zadań takich jak testowanie czy wyodrębnianie danych. Serwer GitHub zapewnia agentowi bezpośredni, kontekstowy dostęp do Twoich repozytoriów, co umożliwia mu zarządzanie żądaniami pull request, rozwiązywanie problemów i analizowanie bazy kodu. Znacznie ogranicza to przełączanie kontekstu i zwiększa produktywność w całym przepływie pracy związanym z programowaniem.

20. Podsumowanie dotyczące interfejsu wiersza poleceń Gemini

Podsumowując, interfejs wiersza poleceń Gemini to zaawansowany i wszechstronny agent AI o otwartym kodzie źródłowym, który bezproblemowo integruje się z modelami Gemini w Google Cloud, co znacznie zwiększa produktywność deweloperów. W tym module poznaliśmy możliwości tego narzędzia w zakresie usprawniania różnych typowych zadań programistycznych, od zrozumienia złożonych baz kodu i generowania niezbędnej dokumentacji oraz testów jednostkowych po wydajne refaktoryzowanie komponentów frontendu i backendu aplikacji internetowej w Pythonie. Dzięki interfejsowi wiersza poleceń Gemini programiści mogą ograniczyć przełączanie kontekstu, zautomatyzować powtarzalne procesy i w efekcie dostarczać kod wyższej jakości z większą wydajnością. Możliwość wykorzystania generatywnej AI bezpośrednio w wierszu poleceń rewolucjonizuje przepływ pracy programistów.

21. Gratulacje!

Gratulacje! Codelab został ukończony.

Omówione zagadnienia:

  • Korzystanie z interfejsu wiersza poleceń Gemini do wykonywania typowych zadań programistycznych

Co dalej?

  • Wkrótce pojawią się kolejne sesje praktyczne.

Czyszczenie danych

Aby uniknąć obciążenia konta Google Cloud opłatami za zasoby zużyte w tym samouczku, możesz usunąć projekt zawierający te zasoby lub zachować projekt i usunąć poszczególne zasoby.

Usuwanie projektu

Najprostszym sposobem na uniknięcie płatności jest usunięcie projektu utworzonego w tym samouczku.

©2024 Google LLC. Wszelkie prawa zastrzeżone. Google i logo Google są znakami towarowymi Google LLC. Wszelkie inne nazwy firm i produktów mogą być znakami towarowymi odpowiednich podmiotów, z którymi są powiązane.