1. Wprowadzenie
Ostatnia aktualizacja: 15.09.2021
Dane wymagane do optymalizacji i analizowania cen są z natury różne (różne systemy, rzeczywistość lokalna itp.), dlatego kluczowe jest opracowanie dobrze zorganizowanej, ustandaryzowanej i przejrzystej tabeli CDM. Obejmuje to kluczowe atrybuty do optymalizacji cen, takie jak transakcje, produkty, ceny i klienci. W tym dokumencie opisujemy krok po kroku, jak szybko zacząć korzystać z analizy cen, którą możesz rozszerzyć i dostosować do swoich potrzeb. Schemat poniżej przedstawia czynności opisane w tym dokumencie.
- Oceń źródła danych: najpierw musisz uzyskać spis źródeł danych, które posłużą do utworzenia CDM. Na tym etapie narzędzie Dataprep służy też do badania i identyfikowania problemów na podstawie danych wejściowych. Na przykład brakujące i niedopasowane wartości, niespójne konwencje nazewnictwa, duplikaty, problemy z integralnością danych, wyniki odstające itp.
- Standaryzacja danych: naprawiamy wykryte wcześniej problemy, aby zapewnić dokładność, integralność, spójność i kompletność danych. Proces ten może obejmować różne przekształcenia w Dataprep, takie jak formatowanie daty, standaryzacja wartości, konwersja jednostkowa, odfiltrowywanie zbędnych pól i wartości oraz dzielenie, łączenie lub duplikowanie danych źródłowych.
- Połącz w jedną strukturę: na następnym etapie potoku każde źródło danych łączy wszystkie źródła danych w jedną, szeroką tabelę w BigQuery, która zawiera wszystkie atrybuty na najbardziej szczegółowym poziomie. Ta zdenormalizowana struktura umożliwia wydajne zapytania analityczne, które nie wymagają złączeń.
- Udostępnianie statystyk Systemy uczące się i sztuczna inteligencja: gdy dane zostaną oczyszczone i sformatowane na potrzeby analizy, analitycy mogą przeglądać dane historyczne, aby poznać wpływ wcześniejszych zmian cen. Dodatkowo BigQuery ML można używać do tworzenia modeli prognostycznych, które szacują przyszłą sprzedaż. Wyniki tych modeli można dołączyć do paneli informacyjnych w narzędziu Looker, aby tworzyć scenariusze „co się stanie, jeśli” w którym użytkownicy biznesowi mogą analizować, jak wygląda sprzedaż z określonymi zmianami cen.
Poniższy diagram przedstawia komponenty Google Cloud używane do tworzenia potoku analizy optymalizacji cen.
Co utworzysz
Dowiesz się z niego, jak zaprojektować hurtownię danych do optymalizacji cen, zautomatyzować przygotowywanie danych z upływem czasu, wykorzystać systemy uczące się do prognozowania wpływu zmian w cenach usług oraz jak tworzyć raporty, które zapewnią Twojemu zespołowi przydatne statystyki.
Czego się nauczysz
- Jak połączyć Dataprep ze źródłami danych na potrzeby analizy cen, które mogą być przechowywane w relacyjnych bazach danych, plikach standardowych, Arkuszach Google i innych obsługiwanych aplikacjach.
- Dowiedz się, jak utworzyć przepływ Dataprep w celu utworzenia tabeli CDM w hurtowni danych BigQuery.
- Jak używać BigQuery ML do prognozowania przyszłych przychodów.
- Jak tworzyć raporty w narzędziu Looker, aby analizować historyczne ceny i trendy sprzedaży oraz poznawać wpływ przyszłych zmian cen.
Czego potrzebujesz
- Projekt Google Cloud z włączonymi płatnościami. Dowiedz się, jak sprawdzić, czy w projekcie są włączone płatności
- W projekcie musisz włączyć BigQuery. Jest on automatycznie włączany w nowych projektach. W przeciwnym razie włącz ją w istniejącym projekcie. Więcej informacji o pierwszych krokach z BigQuery w konsoli Cloud znajdziesz tutaj.
- W projekcie musi być też włączona usługa Dataprep. Usługę Dataprep możesz włączyć w konsoli Google, korzystając z menu nawigacyjnego po lewej stronie w sekcji Big Data. Aby go aktywować, postępuj zgodnie z instrukcjami rejestracji.
- Aby skonfigurować własne panele Looker, musisz mieć dostęp dewelopera do instancji Lookera. Aby poprosić o wersję próbną, skontaktuj się z naszym zespołem lub skorzystaj z publicznego panelu, aby sprawdzić wyniki potoku danych na naszych przykładowych danych.
- Pomocne są doświadczenie z językiem uporządkowanych zapytań (SQL) i podstawowa znajomość następujących zagadnień: Dataprep firmy Trifacta, BigQuery, Looker.
2. Tworzenie CDM w BigQuery
W tej sekcji utworzysz wspólny model danych (Common Data Model, CDM), który zapewni skonsolidowany widok informacji potrzebnych do przeanalizowania i zaproponowania zmian cen.
- Otwórz konsolę BigQuery.
- Wybierz projekt, w którym chcesz przetestować ten wzorzec referencyjny.
- Użyj istniejącego zbioru danych lub utwórz zbiór danych BigQuery. Nazwij zbiór danych
Pricing_CDM
. - Utwórz tabelę:
create table `CDM_Pricing`
(
Fiscal_Date DATETIME,
Product_ID STRING,
Client_ID INT64,
Customer_Hierarchy STRING,
Division STRING,
Market STRING,
Channel STRING,
Customer_code INT64,
Customer_Long_Description STRING,
Key_Account_Manager INT64,
Key_Account_Manager_Description STRING,
Structure STRING,
Invoiced_quantity_in_Pieces FLOAT64,
Gross_Sales FLOAT64,
Trade_Budget_Costs FLOAT64,
Cash_Discounts_and_other_Sales_Deductions INT64,
Net_Sales FLOAT64,
Variable_Production_Costs_STD FLOAT64,
Fixed_Production_Costs_STD FLOAT64,
Other_Cost_of_Sales INT64,
Standard_Gross_Margin FLOAT64,
Transportation_STD FLOAT64,
Warehouse_STD FLOAT64,
Gross_Margin_After_Logistics FLOAT64,
List_Price_Converged FLOAT64
);
3. Oceń źródła danych
W tym samouczku używasz przykładowych źródeł danych przechowywanych w Arkuszach Google i BigQuery.
- Arkusz Google transakcji, który zawiera po jednym wierszu na każdą transakcję. Zawierają informacje takie jak liczba sprzedanych produktów, łączna sprzedaż brutto i powiązane koszty.
- Arkusz Google z cenami usług, który zawiera cenę każdego produktu dla danego klienta w każdym miesiącu.
- Tabela BigQuery Opis firmy zawierająca informacje o poszczególnych klientach.
Tę tabelę „company_descriptions” można utworzyć za pomocą następującej instrukcji:
create table `Company_Descriptions`
(
Customer_ID INT64,
Customer_Long_Description STRING
);
insert into `Company_Descriptions` values (15458, 'ENELTEN');
insert into `Company_Descriptions` values (16080, 'NEW DEVICES CORP.');
insert into `Company_Descriptions` values (19913, 'ENELTENGAS');
insert into `Company_Descriptions` values (30108, 'CARTOON NT');
insert into `Company_Descriptions` values (32492, 'Thomas Ed Automobiles');
4. Tworzenie przepływu
W tym kroku zaimportujesz przykładowy przepływ Dataprep, którego użyjesz do przekształcenia i ujednolicenia przykładowych zbiorów danych wymienionych w poprzedniej sekcji. Przepływ reprezentuje potok, czyli obiekt łączący zbiory danych i przepisy, których używa się do ich przekształcania i łączenia.
- Pobierz z GitHuba pakiet procesu Pricing Optimization Pattern, ale nie rozpakuj go. Ten plik zawiera przepływ wzorca projektu optymalizacji cen używany do przekształcenia przykładowych danych.
- W Dataprep kliknij ikonę Flows na pasku nawigacyjnym po lewej stronie. Następnie w widoku Przepływy wybierz Importuj z menu kontekstowego. Po zaimportowaniu przepływu możesz go wybrać, aby go wyświetlić i edytować.
- Po lewej stronie procesu Ceny produktów i każda z 3 Arkuszy Google z transakcjami muszą być połączone jako zbiory danych. Aby to zrobić, kliknij prawym przyciskiem myszy obiekty zbioru danych Arkuszy Google i wybierz Zastąp. Następnie kliknij link Import Datasets. Kliknij „Edytuj ścieżkę”. jak na wykresie poniżej.
Zastąp bieżącą wartość linkiem wskazującym transakcje i ceny produktów Arkusze Google.
Jeśli Arkusze Google zawierają kilka kart, możesz wybrać z menu tę, której chcesz użyć. Kliknij Edytuj i wybierz karty, których chcesz używać jako źródła danych, a potem kliknij kolejno Zapisz i Importuj Add to Flow. Po powrocie do okna kliknij Zastąp. W tym procesie każdy arkusz jest reprezentowany jako własny zbiór danych, co ma na celu zademonstrowanie łączenia odmiennych źródeł w dalszej części przepisu.
- Zdefiniuj tabele wyjściowe BigQuery:
W tym kroku powiążesz lokalizację tabeli wyjściowej BigQuery CDM_Price, która będzie ładowana przy każdym uruchomieniu zadania Dataoprep.
W widoku przepływu kliknij ikonę danych wyjściowych schematu mapowania, a następnie w panelu Details (Szczegóły) kliknij kartę Targets (Miejsca docelowe). Następnie edytuj w nim dane wyjściowe ręcznie konfigurowanych miejsc docelowych używane do testowania oraz dane wyjściowe Zaplanowane miejsca docelowe używane, gdy chcesz zautomatyzować cały proces. W tym celu wykonaj następujące czynności:
- Edytuj ustawienia „Ręczne miejsca docelowe” w panelu szczegółów, w sekcji „Ręczne miejsca docelowe” i kliknij przycisk Edytuj. Na stronie Publishing Settings (Ustawienia publikowania) w obszarze działań publikowania, jeśli istnieje już działanie publikowania, wybierz opcję Edit it (Edytuj). W przeciwnym razie kliknij przycisk Add Action (Dodaj działanie). Następnie przejdź do zbiorów danych BigQuery do zbioru danych
Pricing_CDM
utworzonego w poprzednim kroku i wybierz tabelęCDM_Pricing
. Sprawdź, czy zaznaczona jest opcja Dołącz do tej tabeli po każdym uruchomieniu, a następnie kliknij Dodaj i kliknij Zapisz ustawienia. - Edytowanie zaplanowanych miejsc docelowych
W panelu Szczegóły w sekcji Zaplanowane miejsca docelowe kliknij Edytuj.
Są one dziedziczone z ręcznych miejsc docelowych i nie musisz wprowadzać żadnych zmian. Kliknij Zapisz ustawienia.
5. Standardowa ujednolicanie danych
Podane zsumowania, formatowanie i czyszczenie danych transakcji, a następnie łączą wynik z opisami firm i zbiorczymi danymi o cenach na potrzeby raportowania. Następnie przyjrzysz się komponentom procesu, co widać na ilustracji poniżej.
6. Poznaj przepis na dane transakcyjne
Najpierw zapoznasz się z dokumentem Transactional Data Recipe, który służy do przygotowywania danych dotyczących transakcji. Kliknij obiekt Transaction Data (Dane transakcji) w widoku Flow (widok procesu), w panelu Details (Szczegóły) kliknij przycisk Edit Recipe (Edytuj przepis).
Otworzy się strona Transformer z przepisem wyświetlanym w panelu szczegółów. Przepis zawiera wszystkie kroki przekształcania, które mają zastosowanie do danych. Możesz przechodzić w obrębie schematu, klikając pomiędzy poszczególnymi krokami, aby zobaczyć stan danych w konkretnej pozycji w przepisie.
Możesz też kliknąć menu Więcej przy każdym kroku przepisu i wybrać opcję „Przejdź do wybranych” lub „Edytuj” , aby zobaczyć, jak działa przekształcenie.
- Transakcje zawiązane: Pierwszy krok związków transakcji ujętych w różnych arkuszach przedstawiających poszczególne miesiące.
- Ujednolicenie opisów klientów: kolejny krok przepisu to ustandaryzowanie opisów klientów. Oznacza to, że nazwy klientów mogą być podobne z niewielkimi zmianami, więc chcemy je znormalizować według nazwy. Przepis przedstawia 2 możliwe sposoby. Wykorzystuje algorytm standaryzacyjny, który można skonfigurować za pomocą różnych opcji standaryzacji, takich jak „Podobne ciągi znaków”. gdzie wartości, które mają wspólne znaki, są grupowane, czyli „Wymowa”. w którym wartości, które brzmią podobnie, są łączone w grupę. Możesz też sprawdzić opis firmy w tabeli BigQuery podanej powyżej, podając jej identyfikator.
Możesz przejść dalej w ramach przepisu, aby odkryć różne inne techniki czyszczenia i formatowania danych: usuwanie wierszy, formatowanie na podstawie wzorców, wzbogacanie danych wyszukiwaniami, rozwiązywanie problemów z brakującymi wartościami lub zastępowanie niechcianych znaków.
7. Poznaj przepis na dane o cenach produktów
Następnie możesz sprawdzić, co się dzieje w przepisie na dane dotyczące cen produktów, który łączy przygotowane dane transakcji ze zbiorczymi danymi o cenach.
Kliknij PATTERN PROJEKTU OPTYMALIZACJI CEN u góry strony, aby zamknąć stronę Transformer i wrócić do widoku przepływu. Następnie kliknij obiekt danych cen produktów i edytuj przepis.
- Cofnij przestawienie miesięcznej kolumny z cenami: kliknij przepis między 2 a 3 krokami, by zobaczyć, jak wyglądają dane przed krokiem Cofnij ustawienie. Zauważysz, że dane zawierają wartość transakcji w oddzielnej kolumnie dla każdego miesiąca: Styczeń Fev Mar. Nie jest to wygodny format do stosowania agregacji (tj.sumy, średniej transakcji) w SQL. Dane muszą być nieprzestawne, aby każda kolumna stała się wierszem w tabeli BigQuery. Przepis korzysta z funkcji unpivot, aby przekształcić 3 kolumny w 1 wiersz dla każdego miesiąca, co ułatwia stosowanie obliczeń grupowych.
- Obliczaj średnią wartość transakcji według klienta, usługi i daty: chcemy obliczyć średnią wartość transakcji dla każdego klienta, produktu i danych. Możemy użyć funkcji agregacji i wygenerować nową tabelę (opcja „Pogrupuj według jako nowa tabela”). W takim przypadku dane są agregowane na poziomie grupy i utracisz szczegóły poszczególnych transakcji. Możemy też zachować zarówno szczegóły, jak i wartości zagregowane w tym samym zbiorze danych (opcja „Pogrupuj według nowej kolumny lub kolumn”), co bardzo ułatwia stosowanie współczynnika (tj. procent udziału kategorii produktów w łącznych przychodach). Możesz wypróbować ten sposób, edytując krok 7 przepisu i wybierając opcję „Grupuj według jako nową tabelę” lub „Grupuj według jako nowe kolumny” aby poznać różnice.
- Data cen złączenia: na koniec złączenie pozwala połączyć kilka zbiorów danych w jedny większy zbiór, dodając kolumny do początkowego zbioru danych. Na tym etapie dane o cenach są łączone z danymi wyjściowymi przepisu dotyczącego danych transakcyjnych na podstawie atrybutu „Pricing Data.Product Code”. = Dane transakcji.SKU' i „Pricing Data.Price Date”, = „Dane transakcji.Data fiskalna”
Aby dowiedzieć się więcej o przekształceniach, które możesz zastosować za pomocą Dataprep, zapoznaj się ze ściągawką dotyczącą funkcji Trifacta Data Wrangling.
8. Przepis na mapowanie schematów
Ostatni przepis, czyli mapowanie schematów, sprawia, że wynikowa tabela CDM jest zgodna z istniejącym schematem tabeli wyjściowej BigQuery. W tym przykładzie funkcja szybkiego celu służy do zmiany formatu struktury danych tak, aby pasowała do tabeli BigQuery, przy użyciu dopasowania przybliżonego do porównania obu schematów i zastosowania zmian automatycznych.
9. Scal w jedną strukturę
Po skonfigurowaniu źródeł i miejsc docelowych oraz zbadaniu kroków przepływów możesz uruchomić przepływ, aby przekształcić tabelę CDM i wczytać ją w BigQuery.
- Uruchom mapowanie schematu: w widoku przepływu wybierz obiekt wyjściowy mapowania schematu i kliknij „Uruchom”. na panelu Szczegóły. Wybierz „Trifacta Photon” Uruchomione środowisko i odznacz opcję Ignoruj błędy przepisu. Następnie kliknij przycisk Uruchom. Jeśli określona tabela BigQuery istnieje, Dataprep będzie dołączać nowe wiersze. W przeciwnym razie utworzy nową tabelę.
- Wyświetlanie stanu zadania: Dataprep automatycznie otwiera stronę Uruchom zadanie, dzięki czemu możesz monitorować wykonanie zadania. Wczytywanie tabeli BigQuery i kontynuowanie procedury powinno zająć kilka minut. Po zakończeniu zadania dane wyjściowe z cennika CDM zostaną wczytane do BigQuery w czystym, uporządkowanym i znormalizowanym formacie gotowym do analizy.
10. Dostarczaj statystyki i ML/AI
Wymagania wstępne Analytics
Aby przeprowadzić analizy i opracować model prognostyczny z interesującymi wynikami, stworzyliśmy większy i trafny zbiór danych, który umożliwia znajdowanie konkretnych informacji. Zanim przejdziesz dalej w tym przewodniku, musisz przesłać te dane do zbioru danych BigQuery.
- Pobierz duży zbiór danych z tego repozytorium GitHub.
- W konsoli Google dla BigQuery otwórz swój projekt i zbiór danych CDM_Pricing.
- Kliknij menu i otwórz zbiór danych. Utworzymy tabelę, pobierając dane z pliku lokalnego.
Kliknij przycisk + Utwórz tabelę i zdefiniuj następujące parametry:
- Utwórz tabelę z przesłanego pliku i wybierz plik CDM_Pricing_Large_Table.csv
- Automatyczne wykrywanie schematu, sprawdzanie schematu i parametrów wejściowych
- Opcje zaawansowane, Preferencja zapisu, Zastąp tabelę
- Kliknij Utwórz tabelę
Po utworzeniu tabeli i przesłaniu danych w konsoli Google dla BigQuery powinny pojawić się szczegóły nowej tabeli, jak pokazano poniżej. Dzięki danym o cenach w BigQuery możemy z łatwością zadawać bardziej szczegółowe pytania, aby dokładniej przeanalizować informacje o cenach.
11. Wyświetlanie efektów zmian cen
Przykładem może być zmiana zachowania zamówienia, gdy cena produktu została wcześniej zmieniona.
- Najpierw tworzysz tabelę tymczasową, która zawiera jeden wiersz na każdą zmianę ceny produktu. Zawiera ona informacje o cenach konkretnego produktu, np. liczbę produktów zamówionych w poszczególnych cenach oraz łączną sprzedaż netto powiązaną z daną ceną.
create temp table price_changes as (
select
product_id,
list_price_converged,
total_ordered_pieces,
total_net_sales,
first_price_date,
lag(list_price_converged) over(partition by product_id order by first_price_date asc) as previous_list,
lag(total_ordered_pieces) over(partition by product_id order by first_price_date asc) as previous_total_ordered_pieces,
lag(total_net_sales) over(partition by product_id order by first_price_date asc) as previous_total_net_sales,
lag(first_price_date) over(partition by product_id order by first_price_date asc) as previous_first_price_date
from (
select
product_id,list_price_converged,sum(invoiced_quantity_in_pieces) as total_ordered_pieces, sum(net_sales) as total_net_sales, min(fiscal_date) as first_price_date
from `{{my_project}}.{{my_dataset}}.CDM_Pricing` AS cdm_pricing
group by 1,2
order by 1, 2 asc
)
);
select * from price_changes where previous_list is not null order by product_id, first_price_date desc
- Następnie, mając obecną tabelę tymczasową, możesz obliczyć średnią zmianę ceny dla różnych kodów SKU:
select avg((previous_list-list_price_converged)/nullif(previous_list,0))*100 as average_price_change from price_changes;
- Na koniec możesz przeanalizować, co dzieje się po zmianie ceny, obserwując zależność między każdą zmianą ceny a łączną liczbą zamówionych produktów:
select
(total_ordered_pieces-previous_total_ordered_pieces)/nullif(previous_total_ordered_pieces,0)
Jako
price_changes_percent_ordered_change,
(list_price_converged-previous_list)/nullif(previous_list,0)
Jako
price_changes_percent_price_change
from price_changes
12. Utworzenie modelu prognozowania ciągu czasowego
Następnie dzięki wbudowanym funkcjom systemów uczących się BigQuery możesz utworzyć model prognozowania ciągu czasowego ARIMA do przewidywania liczby sprzedanych produktów.
- Najpierw utwórz model ARIMA_PLUS
create or replace `{{my_project}}.{{my_dataset}}.bqml_arima`
options
(model_type = 'ARIMA_PLUS',
time_series_timestamp_col = 'fiscal_date',
time_series_data_col = 'total_quantity',
time_series_id_col = 'product_id',
auto_arima = TRUE,
data_frequency = 'AUTO_FREQUENCY',
decompose_time_series = TRUE
) as
select
fiscal_date,
product_id,
sum(invoiced_quantity_in_pieces) as total_quantity
from
`{{my_project}}.{{my_dataset}}.CDM_Pricing`
group by 1,2;
- Następnie używasz funkcji ML.FORECAST do prognozowania przyszłej sprzedaży każdego produktu:
select
*
from
ML.FORECAST(model testing.bqml_arima,
struct(30 as horizon, 0.8 as confidence_level));
- Dysponując tymi prognozami, możesz spróbować zrozumieć, co może się stać po podniesieniu cen. Jeśli na przykład podniesiesz cenę każdego produktu o 15%, możesz obliczyć szacunkowe łączne przychody w następnym miesiącu, wpisując zapytanie:
select
sum(forecast_value * list_price) as total_revenue
from ml.forecast(mode testing.bqml_arima,
struct(30 as horizon, 0.8 as confidence_level)) forecasts
left join (select product_id,
array_agg(list_price_converged
order by fiscal_date desc limit 1)[offset(0)] as list_price
from `leigha-bq-dev.retail.cdm_pricing` group by 1) recent_prices
using (product_id);
13. Tworzenie raportu
Teraz gdy znormalizowane dane o cenach są scentralizowane w BigQuery i wiesz, jak wykonywać znaczące zapytania na ich podstawie, nadszedł czas na utworzenie raportu, który umożliwi użytkownikom biznesowym przeglądanie tych informacji i podejmowanie na ich podstawie działań.
Jeśli masz już instancję Looker, możesz użyć LookML w tym repozytorium GitHub, aby rozpocząć analizę danych dotyczących cen dla tego wzorca. Wystarczy utworzyć nowy projekt Lookera, dodać narzędzie LookML i zastąpić nazwy połączenia oraz nazwy tabel w każdym z plików widoku zgodnie z konfiguracją BigQuery.
W tym modelu znajdziesz tabelę pochodną ( w tym pliku widoku danych), którą pokazaliśmy wcześniej, aby zbadać zmiany cen:
view: price_changes {
derived_table: {
sql: select
product_id,
list_price_converged,
total_ordered_pieces,
total_net_sales,
first_price_date,
lag(list_price_converged) over(partition by product_id order by first_price_date asc) as previous_list,
lag(total_ordered_pieces) over(partition by product_id order by first_price_date asc) as previous_total_ordered_pieces,
lag(total_net_sales) over(partition by product_id order by first_price_date asc) as previous_total_net_sales,
lag(first_price_date) over(partition by product_id order by first_price_date asc) as previous_first_price_date
from (
select
product_id,list_price_converged,sum(invoiced_quantity_in_pieces) as total_ordered_pieces, sum(net_sales) as total_net_sales, min(fiscal_date) as first_price_date
from ${cdm_pricing.SQL_TABLE_NAME} AS cdm_pricing
group by 1,2
order by 1, 2 asc
)
;;
}
...
}
a także przedstawiony wcześniej model BigQuery ML ARIMA, który pozwala prognozować przyszłą sprzedaż ( w tym pliku widoku).
view: arima_model { derived_table: { persist_for: "24 hours" sql_create: create or replace model ${sql_table_name} options (model_type = 'arima_plus', time_series_timestamp_col = 'fiscal_date', time_series_data_col = 'total_quantity', time_series_id_col = 'product_id', auto_arima = true, data_frequency = 'auto_frequency', decompose_time_series = true ) as select fiscal_date, product_id, sum(invoiced_quantity_in_pieces) as total_quantity from ${cdm_pricing.sql_table_name} group by 1,2 ;; } } ... }
LookML zawiera też przykładowy panel. Wersję demonstracyjną panelu znajdziesz tutaj Pierwsza część panelu zawiera ogólne informacje o zmianach w sprzedaży, kosztach, cenach i marżach. Jako użytkownik biznesowy możesz utworzyć alert, aby otrzymywać informacje o spadku sprzedaży poniżej X%. Może to oznaczać, że obniżysz ceny.
Kolejna sekcja, widoczna poniżej, pozwala użytkownikom przyjrzeć się trendom związanym ze zmianami cen. Możesz tutaj przeanalizować konkretne produkty, aby zobaczyć dokładną rynkową cenę detaliczną i ceny, które uległy zmianie. Może to pomóc w znalezieniu konkretnych produktów i przeprowadzeniu o nich dodatkowych informacji.
Na dole raportu znajdują się wyniki naszego modelu BigQueryML. Za pomocą filtrów w górnej części panelu Lookera możesz łatwo wpisywać parametry, aby symulować różne scenariusze podobne do opisanych powyżej. Na przykład można zobaczyć, co się stanie, jeśli liczba zamówień spadnie do 75% przewidywanej wartości, a ceny wszystkich produktów wzrosną o 25%, jak widać poniżej.
Funkcja ta jest oparta na parametrach w LookML, które są następnie uwzględniane bezpośrednio w obliczeniach wskaźników w tym miejscu. Dzięki raportom tego typu możesz znaleźć optymalną cenę wszystkich produktów lub przeanalizować konkretne produkty, aby określić, gdzie warto podnieść lub obniżyć ceny i jaki byłby wpływ przychodów brutto i netto.
14. Dostosuj do swoich systemów cenowych
Ten samouczek przekształca przykładowe źródła danych, ale musisz się zmierzyć z podobnymi wyzwaniami związanymi z danymi dotyczącymi zasobów z cenami, które działają na różnych platformach. Komponenty z cenami mają różne formaty eksportu (często xls, sheets, csv, txt, relacyjne bazy danych, aplikacje biznesowe), aby uzyskać podsumowanie i szczegółowe wyniki. Każdy z nich można połączyć z Dataprep. Zalecamy, aby zacząć od opisania wymagań przekształcenia podobnie jak w przykładach powyżej. Gdy już ustalisz specyfikacje i dowiesz się, jakich typów przekształceń należy użyć, możesz je zaprojektować w Dataprep.
- Utwórz kopię procesu Dataprep (kliknij przycisk **... "**więcej" po prawej stronie procesu i wybierz opcję Duplikuj), który chcesz dostosować, lub po prostu zacznij od zera, używając nowego procesu Dataprep.
- Połącz się z własnym zbiorem danych z cenami. Dataprep natywnie obsługuje formaty plików takie jak Excel, CSV, Arkusze Google i JSON. Możesz też łączyć się z innymi systemami za pomocą oprogramowania sprzęgającego Dataprep.
- Rozdziel zasoby danych według określonych kategorii przekształceń. Dla każdej kategorii utwórz jeden przepis. Czerp inspirację z przepływu dostępnego w tym wzorcu projektowania, aby przekształcać dane i tworzyć własne przepisy. Jeśli napotkasz problem, bez obaw, poproś o pomoc w oknie czatu w lewym dolnym rogu ekranu Dataprep.
- Połącz swój przepis z instancją BigQuery. Nie musisz ręcznie tworzyć tabel w BigQuery – Dataprep zajmie się tym automatycznie. Zalecamy, aby podczas dodawania danych wyjściowych do procesu wybrać ręczne miejsce docelowe i upuścić tabelę przy każdym uruchomieniu. Przetestuj każdy przepis po kolei, aż osiągniesz oczekiwane wyniki. Po zakończeniu testowania, przy każdym uruchomieniu konwertujesz dane wyjściowe na Dołącz do tabeli, aby uniknąć usuwania poprzednich danych.
- Opcjonalnie możesz powiązać przepływ, aby działał zgodnie z harmonogramem. Jest to przydatne, jeśli proces musi działać nieprzerwanie. Możesz określić harmonogram wczytywania odpowiedzi codziennie lub co godzinę zależnie od wymaganej aktualności. Jeśli zdecydujesz się uruchomić przepływ zgodnie z harmonogramem, musisz dodać w przepływie procesu dane wyjściowe harmonogramu dla każdego przepisu.
Modyfikowanie modelu systemów uczących się BigQuery
W tym samouczku znajdziesz przykładowy model ARIMA. Występują jednak dodatkowe parametry, które możesz kontrolować podczas tworzenia modelu, aby mieć pewność, że najlepiej pasuje do Twoich danych. Więcej szczegółów znajdziesz w przykładzie w naszej dokumentacji tutaj. Aby uzyskać więcej informacji o modelu i podjąć decyzje dotyczące optymalizacji, możesz też użyć funkcji BigQuery ML.ARIMA_EVALUATE, ML.ARIMA_COEFFICIENTS i ML.EXPLAIN_FORECAST.
Edytuj raporty Lookera
Po zaimportowaniu kodu LookML do własnego projektu w sposób opisany powyżej możesz wprowadzać bezpośrednie zmiany, aby dodawać kolejne pola, modyfikować obliczenia lub parametry wprowadzone przez użytkownika, a także zmieniać wizualizacje w panelach zgodnie z potrzebami biznesowymi. Szczegółowe informacje o programowaniu w LookML znajdziesz tutaj, a wizualizację danych w Lookerze znajdziesz tutaj.
15. Gratulacje
Znasz już najważniejsze kroki wymagane do optymalizacji cen!
Co dalej?
Poznaj inne wzorce referencyjne dotyczące inteligentnych analiz.
Więcej informacji
- Przeczytaj bloga tutaj
- Więcej informacji o Dataprep znajdziesz tutaj.
- Dowiedz się więcej o systemach uczących się BigQuery.
- Więcej informacji o Looker znajdziesz tutaj.