Featured image of post 第6周工作总结

第6周工作总结

11.11-11.17

总结

这一周又没干啥正经事,学科前沿讲座结课了,整了一下结课论文,把软件工程实训汇报完了,有惊无险,但却有点轻微感冒+上火+口腔溃疡,痛不欲生,虽已习惯了高三时期留下的旧疾,但得了口腔溃疡还是痛。

这周又读了几篇论文,还是没有找到与我要研究东西特别相近的论文,都是关于深度学习的,没有大模型这方面的,这周继续探索一下。


计划

计划就是完成上周以及上上周未完成的计划,继续干

  1. “Privacy-Preserving Deep Learning via Additively Homomorphic Encryption”

    • 该论文研究了通过可加同态加密实现隐私保护的深度学习推理,探讨了如何在保留数据隐私的同时利用深度学习模型进行推理。
  2. “Federated Learning with Encrypted Data”

    • 这篇论文介绍了在联邦学习框架中使用加密数据的方案,虽然主要聚焦于模型训练,但也讨论了如何在推理阶段保护数据隐私。
  3. “Secure Inference with Deep Learning Models”

    • 该研究探讨了如何在不暴露数据的情况下,安全地使用深度学习模型进行推理,涉及多种加密和隐私保护技术。
  4. “Homomorphic Encryption for Privacy-Preserving Machine Learning”

    • 本文讨论了同态加密在隐私保护机器学习中的应用,特别是在数据持有方希望使用外部模型进行推理的情况下。
  5. “Secure and Private Inference of Deep Learning Models”

    • 这篇论文提出了一种框架,用于在保护隐私的情况下安全地进行深度学习模型的推理,涵盖了多个隐私保护技术。
  6. “Privacy-Preserving Machine Learning: A Practical Approach”

    • 本文讨论了一种实用的方法,通过使用加密技术保护数据隐私,同时实现机器学习模型的推理。
  7. “Secure Outsourced Computation in Machine Learning”

    • 这篇论文探讨了如何将机器学习任务外包给持有模型的方,同时保证数据的隐私不被泄露。
  8. “Differentially Private Inference in Machine Learning”

    • 本文介绍了如何在机器学习模型推理过程中实现差分隐私,保证输出结果不泄露输入数据的信息。
  9. “Towards Secure and Private Machine Learning: A Survey”

    • 这篇综述论文涵盖了各种保护数据隐私的技术,包括同态加密和安全多方计算在推理中的应用。
  10. “Federated Learning with Encrypted Data for Privacy-Preserving Machine Learning”

    • 该研究探讨了在联邦学习框架下如何处理加密数据,适用于在不暴露数据的情况下进行模型推理。
  11. “Secure and Private Model Inference: A Survey”

    • 本文回顾了与安全和隐私相关的模型推理方法,强调在使用外部模型时的隐私保护需求。
Licensed under CC BY-NC-SA 4.0
使用 Hugo 构建
主题 StackJimmy 设计