使用 TensorFlow Lite 和 Firebase 将推荐添加到您的应用 - Android Codelab

1. 概述

欢迎使用 TensorFlow Lite 和 Firebase Codelab 的推荐。在此 Codelab 中,您将学习如何使用 TensorFlow Lite 和 Firebase 将推荐模型部署到您的应用。此 Codelab 基于此 TensorFlow Lite示例

推荐允许应用程序使用机器学习来智能地为每个用户提供最相关的内容。他们会考虑过去的用户行为,通过使用根据大量其他用户的聚合行为进行训练的模型来建议用户将来可能希望与之交互的应用程序内容。

本教程介绍如何使用 Firebase Analytics 从应用的用户获取数据,构建机器学习模型以根据该数据提供建议,然后在 Android 应用中使用该模型来运行推理并获取建议。特别是,我们的推荐将根据用户之前喜欢的电影列表来建议用户最有可能观看哪些电影。

你将学到什么

  • 将 Firebase Analytics 集成到 Android 应用中以收集用户行为数据
  • 将该数据导出到 Google Big Query
  • 预处理数据并训练 TF Lite 推荐模型
  • 将 TF Lite 模型部署到 Firebase ML 并从您的应用访问它
  • 使用模型在设备推理上运行,向用户提出建议

你需要什么

  • 最新的Android Studio版本。
  • 示例代码。
  • 配备 Android 7+ 和 Google Play 服务 9.8 或更高版本的测试设备,或者配备 Google Play 服务 9.8 或更高版本的模拟器
  • 如果使用设备,则需要连接电缆。

您将如何使用本教程?

仅通读一遍阅读并完成练习

您如何评价您构建 Android 应用程序的体验?

新手中间的精通

2. 获取示例代码

从命令行克隆 GitHub 存储库。

$ git clone https://github.com/FirebaseExtended/codelab-contentrecommendation-android.git

3. 导入入门应用程序

从 Android Studio 中,选择codelab-recommendations-android目录 ( android_studio_folder.png )从示例代码下载(文件>打开> .../codelab-recommendations-android/start)。

您现在应该在 Android Studio 中打开启动项目。

4.创建Firebase控制台项目

创建一个新项目

  1. 转到Firebase 控制台
  2. 选择“添加项目” (如果是第一个项目,则选择“创建项目”)。
  3. 选择或输入项目名称,然后单击继续
  4. 确保启用“为此项目启用 Google Analytics”。
  5. 按照 Firebase 控制台中的其余设置步骤进行操作,然后单击“创建项目”(如果您使用的是现有 Google 项目,则单击“添加 Firebase”)。

5.添加Firebase

  1. 在新项目的概述屏幕中,单击 Android 图标以启动设置工作流程。
  2. 输入 Codelab 的包名称: com.google.firebase.codelabs.recommendations
  3. 选择注册应用程序

将 google-services.json 文件添加到您的应用程序

添加包名称并选择注册后,单击下载 google-services.json以获取 Firebase Android 配置文件,然后将 google-services.json 文件复制到项目中的app目录中。下载文件后,您可以跳过控制台中显示的后续步骤(这些步骤已在 build-android-start 项目中为您完成)。

将 google-services 插件添加到您的应用程序

google-services 插件使用 google-services.json 文件将您的应用程序配置为使用 Firebase。以下行应该已添加到项目中的 build.gradle.kts 文件中(检查以确认):

应用程序/build.grade.kts

plugins {
    id("com.google.gms.google-services")
}

构建.等级.kts

plugins {
    id("com.google.gms.google-services") version "4.3.15" apply false
}

将您的项目与 gradle 文件同步

为了确保所有依赖项都可供您的应用程序使用,此时您应该将项目与 gradle 文件同步。从 Android Studio 工具栏中选择“文件”>“将项目与 Gradle 文件同步”

6. 运行启动应用程序

现在您已将项目导入 Android Studio 并使用 JSON 文件配置了google-services插件,您已准备好首次运行该应用程序。连接您的 Android 设备,然后单击运行( 执行.png )在 Android Studio 工具栏中。

该应用程序应该在您的设备上启动。此时,您可以看到一个正在运行的应用程序,其中显示一个带有电影列表的选项卡、一个“喜欢的电影”选项卡和一个“推荐”选项卡。您可以单击电影列表中的电影将其添加到您喜欢的列表中。完成 Codelab 的剩余步骤后,我们将能够在“推荐”选项卡中生成电影推荐。

7. 将 Firebase Analytics 添加到应用程序

在此步骤中,您将向应用添加 Firebase Analytics 以记录用户行为数据(在本例中为用户喜欢的电影)。这些数据将在未来的步骤中汇总使用来训练推荐模型。

添加 Firebase 物料清单和分析依赖项

要将 Firebase Analytics 添加到您的应用,需要以下依赖项。它们应该已经包含在 app/build.gradle.kts 文件中(验证)。

应用程序/build.grade.kts

implementation(platform("com.google.firebase:firebase-bom:32.0.0"))
implementation("com.google.firebase:firebase-analytics-ktx")

在应用中设置 Firebase Analytics

LikedMoviesViewModel包含存储用户喜欢的电影的函数。每当用户喜欢一部新电影时,我们还希望发送一个分析日志事件来记录该喜欢。

使用以下代码添加 onMovieLiked 函数,以在用户单击电影时注册分析事件。

LikedMoviesViewModel.kt

import com.google.firebase.analytics.FirebaseAnalytics
import com.google.firebase.analytics.ktx.analytics
import com.google.firebase.analytics.ktx.logEvent
import com.google.firebase.ktx.Firebase


class LikedMoviesViewModel internal constructor (application: Application) : AndroidViewModel(application) {

    ...

    fun onMovieLiked(movie: Movie) {
        movies.setLike(movie, true)
        logAnalyticsEvent(movie.id.toString())
    }
       
}

添加以下字段和函数,以便在将电影添加到用户的“喜欢”列表时记录 Analytics 事件。

LikedMoviesViewModel.kt

import com.google.firebase.analytics.FirebaseAnalytics
import com.google.firebase.analytics.ktx.analytics
import com.google.firebase.analytics.ktx.logEvent
import com.google.firebase.ktx.Firebase


class LikedMoviesViewModel internal constructor (application: Application) : AndroidViewModel(application) {
    ...
    private val firebaseAnalytics = Firebase.analytics

    ...

    /**
     * Logs an event in Firebase Analytics that is used in aggregate to train the recommendations
     * model.
     */
    private fun logAnalyticsEvent(id: String) {
        firebaseAnalytics.logEvent(FirebaseAnalytics.Event.SELECT_ITEM) {
            param(FirebaseAnalytics.Param.ITEM_ID, id)
        }
    }

8. 测试您的 Analytics 集成

在此步骤中,我们将在应用程序中生成 Analytics 事件并验证它们是否被发送到 Firebase 控制台。

启用分析调试日志记录

Firebase Analytics 旨在最大限度地延长用户电池寿命,并会在设备上批量处理事件,并且仅偶尔将其发送到 Firebase。出于调试目的,我们可以通过在 shell 中运行以下命令来禁用此行为,以便在实时记录事件时查看事件。

终端

adb shell setprop debug.firebase.analytics.app com.google.firebase.codelabs.recommendations

验证 Analytics 事件是否已生成

  1. 在 Android studio 中,打开 Logcat 窗口以检查应用程序的日志记录。
  2. 将 Logcat 过滤器设置为字符串“Logging event”。
  3. 验证每次您在应用程序中点赞某部电影时是否都会发出“select_item”Analytics 事件。

至此,您已成功将 Firebase Analytics 集成到您的应用中。当用户使用您的应用程序并喜欢电影时,他们的喜欢将被汇总。我们将在本 Codelab 的其余部分中使用这些聚合数据来训练我们的推荐模型。以下是一个可选步骤,用于查看您在 Logcat 中看到的相同 Analytics 事件是否也流入 Firebase 控制台。请随意跳至下一页。

可选:在 Firebase 控制台中确认 Analytics 事件

  1. 转到Firebase 控制台
  2. 选择 Analytics 下的DebugView
  3. 在 Android Studio 中,选择“运行”以启动应用程序并将一些电影添加到“喜欢”列表中。
  4. 在 Firebase 控制台的 DebugView 中,验证在应用中添加电影时是否记录了这些事件。

9. 将 Analytics 数据导出到 Big Query

Big Query 是一款 Google Cloud 产品,可让您检查和处理大量数据。在此步骤中,您将 Firebase 控制台项目连接到 Big Query,以便应用生成的 Analytics 数据自动导出到 Big Query。

启用 Big Query 导出

  1. 转到Firebase 控制台
  2. 选择“项目概述”旁边的“设置”齿轮图标,然后选择“项目设置”
  3. 选择集成选项卡。
  4. BigQuery块内选择“链接” (或“管理”)。
  5. 关于将 Firebase 链接到 BigQuery步骤中选择下一步
  6. 配置集成部分下,单击开关以启用发送 Google Analytics 数据,然后选择链接到 BigQuery

您现在已启用 Firebase 控制台项目,以自动将 Firebase Analytics 事件数据发送到 Big Query。此过程会自动发生,无需任何进一步的交互,但是,在 BigQuery 中创建分析数据集的首次导出可能需要 24 小时才能进行。创建数据集后,Firebase 会不断将新的 Analytics 事件导出到 Big Query 到日内表中,并对事件表中过去几天的事件进行分组。

训练推荐模型需要大量数据。由于我们还没有生成大量数据的应用程序,因此在下一步中,我们将向 BigQuery 导入示例数据集以用于本教程的其余部分。

10.使用BigQuery获取模型训练数据

现在我们已经连接 Firebase 控制台以导出到 BigQuery,我们的应用分析事件数据将在一段时间后自动显示在 BigQuery 控制台中。为了获取本教程所需的一些初始数据,在此步骤中,我们将现有的示例数据集导入您的 BigQuery 控制台,以用于训练我们的推荐模型。

将示例数据集导入 BigQuery

  1. 转到 Google 云控制台中的BigQuery仪表板。
  2. 在菜单中选择您的项目名称。
  3. 在 BigQuery 左侧导航底部选择您的项目名称以查看详细信息。
  4. 选择创建数据集以打开数据集创建面板。
  5. 输入“firebase_recommendations_dataset”作为数据集 ID ,然后选择“创建数据集”
  6. 新数据集将显示在项目名称下的左侧菜单中。点击它。
  7. 选择创建表以打开表创建面板。
  8. 对于创建表,请选择“Google 云存储”。
  9. “从 GCS 存储桶中选择文件”字段中,输入“gs://firebase-recommendations/recommendations-test/formatted_data_filtered.txt”。
  10. 文件格式下拉列表中选择“JSONL”。
  11. 输入“recommendations_table”作为表名称
  12. 选中架构 > 自动检测 > 架构和输入参数下的框
  13. 选择创建表

探索示例数据集

此时,您可以选择探索架构并预览此数据集。

  1. 在左侧菜单中选择firebase-recommendations-dataset以展开其包含的表。
  2. 选择推荐表以查看表架构。
  3. 选择预览以查看此表包含的实际 Analytics 事件数据。

创建服务帐户凭据

现在,我们将在 Google Cloud 控制台项目中创建服务帐户凭据,我们可以在接下来的步骤中在 Colab 环境中使用该凭据来访问和加载 BigQuery 数据。

  1. 确保您的 Google Cloud 项目已启用结算功能。
  2. 启用 BigQuery 和 BigQuery Storage API API。 <点击这里>
  3. 转至创建服务帐户密钥页面
  4. 服务帐户列表中,选择新建服务帐户
  5. 服务帐户名称字段中,输入名称。
  6. 角色列表中,选择项目>所有者
  7. 单击创建。包含您的密钥的 JSON 文件将下载到您的计算机。

下一步,我们将使用 Google Colab 预处理这些数据并训练我们的推荐模型。

11. 预处理数据并训练推荐模型

在此步骤中,我们将使用 Colab 笔记本执行以下步骤:

  1. 将 BigQuery 数据导入 Colab 笔记本
  2. 预处理数据,为模型训练做好准备
  3. 根据分析数据训练推荐模型
  4. 将模型导出为 TF lite 模型
  5. 将模型部署到 Firebase 控制台,以便我们可以在我们的应用程序中使用它

在启动 Colab 训练笔记本之前,我们将首先启用 Firebase 模型管理 API,以便 Colab 可以将经过训练的模型部署到我们的 Firebase 控制台。

启用 Firebase 模型管理 API

创建一个存储桶来存储您的 ML 模型

在 Firebase 控制台中,转到“存储”并单击“开始”。 fbbea78f0eb3dc9f.png

按照对话设置您的存储桶。

19517c0d6d2aa14d.png

启用 Firebase ML API

转到 Google Cloud Console 上的Firebase ML API 页面,然后单击启用。

使用Colab笔记本训练和部署模型

使用以下链接打开 Colab 笔记本并完成其中的步骤。完成 Colab 笔记本中的步骤后,您将拥有一个部署到 Firebase 控制台的 TF lite 模型文件,我们可以将其同步到我们的应用程序。

在 Colab 中打开

12. 在您的应用程序中下载模型

在此步骤中,我们将修改应用程序以下载刚刚从 Firebase 机器学习训练的模型。

添加 Firebase ML 依赖项

为了在您的应用中使用 Firebase 机器学习模型,需要以下依赖项。它应该已经添加(验证)。

应用程序/build.grade.kts

implementation("com.google.firebase:firebase-ml-modeldownloader:24.1.2")

使用 Firebase Model Manager API 下载模型

将以下代码复制到RecommendationClient.kt中以设置模型下载发生的条件,并创建下载任务以将远程模型同步到我们的应用程序。

推荐客户端.kt

    private fun downloadModel(modelName: String) {
        val conditions = CustomModelDownloadConditions.Builder()
            .requireWifi()
            .build()
        FirebaseModelDownloader.getInstance()
            .getModel(modelName, DownloadType.LOCAL_MODEL, conditions)
            .addOnCompleteListener {
                if (!it.isSuccessful) {
                    showToast(context, "Failed to get model file.")
                } else {
                    showToast(context, "Downloaded remote model: $modelName")
                    GlobalScope.launch { initializeInterpreter(it.result) }
                }
            }
            .addOnFailureListener {
                showToast(context, "Model download failed for recommendations, please check your connection.")
            }
    }

13. 将 Tensorflow Lite 推荐模型集成到您的应用程序中

Tensorflow Lite 运行时将允许您在应用程序中使用模型来生成建议。在上一步中,我们使用下载的模型文件初始化了 TFlite 解释器。在此步骤中,我们将首先在推理步骤中加载字典和标签以配合我们的模型,然后添加预处理以生成模型的输入和后处理,在其中我们将从推理中提取结果。

加载字典和标签

res/assets 文件夹中的sorted_movie_vocab.json文件中列出了推荐模型用于生成推荐候选的标签。复制以下代码以加载这些候选项。

推荐客户端.kt

    /** Load recommendation candidate list.  */
    private suspend fun loadCandidateList() {
        return withContext(Dispatchers.IO) {
            val collection = MovieRepository.getInstance(context).getContent()
            for (item in collection) {
                candidates[item.id] = item
            }
            Log.v(TAG, "Candidate list loaded.")
        }
    }

实施预处理

在预处理步骤中,我们更改输入数据的形式以匹配我们的模型所期望的。在这里,如果我们还没有产生大量用户喜欢,我们会用占位符值填充输入长度。复制下面的代码:

推荐客户端.kt

    /** Given a list of selected items, preprocess to get tflite input.  */
    @Synchronized
    private suspend fun preprocess(selectedMovies: List<Movie>): IntArray {
        return withContext(Dispatchers.Default) {
            val inputContext = IntArray(config.inputLength)
            for (i in 0 until config.inputLength) {
                if (i < selectedMovies.size) {
                    val (id) = selectedMovies[i]
                    inputContext[i] = id
                } else {
                    // Padding input.
                    inputContext[i] = config.pad
                }
            }
            inputContext
        }
    }


运行解释器以生成建议

在这里,我们使用在上一步中下载的模型对预处理的输入运行推理。我们为模型设置输入和输出的类型,并运行推理来生成电影推荐。将以下代码复制到您的应用程序中。

推荐客户端.kt

    /** Given a list of selected items, and returns the recommendation results.  */
    @Synchronized
    suspend fun recommend(selectedMovies: List<Movie>): List<Result> {
        return withContext(Dispatchers.Default) {
            val inputs = arrayOf<Any>(preprocess(selectedMovies))

            // Run inference.
            val outputIds = IntArray(config.outputLength)
            val confidences = FloatArray(config.outputLength)
            val outputs: MutableMap<Int, Any> = HashMap()
            outputs[config.outputIdsIndex] = outputIds
            outputs[config.outputScoresIndex] = confidences
            tflite?.let {
                it.runForMultipleInputsOutputs(inputs, outputs)
                postprocess(outputIds, confidences, selectedMovies)
            } ?: run {
                Log.e(TAG, "No tflite interpreter loaded")
                emptyList()
            }
        }
    }



实施后处理

最后,在此步骤中,我们对模型的输出进行后处理,选择置信度最高的结果并删除包含的值(用户已经喜欢的电影)。将以下代码复制到您的应用程序中。

推荐客户端.kt

    /** Postprocess to gets results from tflite inference.  */
    @Synchronized
    private suspend fun postprocess(
        outputIds: IntArray, confidences: FloatArray, selectedMovies: List<Movie>
    ): List<Result> {
        return withContext(Dispatchers.Default) {
            val results = ArrayList<Result>()

            // Add recommendation results. Filter null or contained items.
            for (i in outputIds.indices) {
                if (results.size >= config.topK) {
                    Log.v(TAG, String.format("Selected top K: %d. Ignore the rest.", config.topK))
                    break
                }
                val id = outputIds[i]
                val item = candidates[id]
                if (item == null) {
                    Log.v(TAG, String.format("Inference output[%d]. Id: %s is null", i, id))
                    continue
                }
                if (selectedMovies.contains(item)) {
                    Log.v(TAG, String.format("Inference output[%d]. Id: %s is contained", i, id))
                    continue
                }
                val result = Result(
                    id, item,
                    confidences[i]
                )
                results.add(result)
                Log.v(TAG, String.format("Inference output[%d]. Result: %s", i, result))
            }
            results
        }
    }


测试您的应用程序!

重新运行您的应用程序。当您选择几部电影时,它应该会自动下载新模型并开始生成推荐!

14. 恭喜!

您已使用 TensorFlow Lite 和 Firebase 在您的应用中构建了推荐功能。请注意,此 Codelab 中显示的技术和流程也可以推广并用于提供其他类型的推荐。

我们涵盖的内容

  • Firebase 机器学习
  • Firebase 分析
  • 将分析事件导出到 BigQuery
  • 预处理分析事件
  • 训练推荐 TensorFlow 模型
  • 导出模型并部署到 Firebase 控制台
  • 在应用程序中提供电影推荐

下一步

  • 在您的应用中实施 Firebase ML 建议。

了解更多

有一个问题?

报告问题