KL-FedDis: A federated learning approach with distribution information sharing using Kullback-Leibler divergence for non-IID data - 03/12/24

Doi : 10.1016/j.neuri.2024.100182 
Md. Rahad a , Ruhan Shabab a , Mohd. Sultan Ahammad a , Md. Mahfuz Reza a , Amit Karmaker c , Md. Abir Hossain b, c,
a Computer Science & Engineering, Mawlana Bhashani Science and Technology University, Tangail, 1902, Bangladesh 
b Information & Communication Technology, Mawlana Bhashani Science and Technology University, Tangail, 1902, Bangladesh 
c Institute of Information & Communication Technology, Bangladesh University of Engineering and Technology, Dhaka, 1205, Bangladesh 

Corresponding author at: Information & Communication Technology, Mawlana Bhashani Science and Technology University, Tangail, 1902, Bangladesh.Information & Communication TechnologyMawlana Bhashani Science and Technology UniversityTangail1902Bangladesh

Bienvenido a EM-consulte, la referencia de los profesionales de la salud.
Artículo gratuito.

Conéctese para beneficiarse!

Abstract

Data Heterogeneity or Non-IID (non-independent and identically distributed) data identification is one of the prominent challenges in Federated Learning (FL). In Non-IID data, clients have their own local data, which may not be independently and identically distributed. This arises because clients involved in federated learning typically have their own unique, local datasets that vary significantly due to factors like geographical location, user behaviors, or specific contexts. Model divergence is another critical challenge where the local models trained on different clients, data may diverge significantly but making it difficult for the global model to converge. To identify the non-IID data, few federated learning models have been introduced as FedDis, FedProx and FedAvg, but their accuracy is too low. To address the clients Non-IID data along with ensuring privacy, federated learning emerged with appropriate distribution mechanism is an effective solution. In this paper, a modified FedDis learning method called KL-FedDis is proposed, which incorporates Kullback-Leibler (KL) divergence as the regularization technique. KL-FedDis improves accuracy and computation time over the FedDis and FedAvg technique by successfully maintaining the distribution information and encouraging improved collaboration among the local models by utilizing KL divergence.

El texto completo de este artículo está disponible en PDF.

Keywords : Federated learning, FedDis, KL divergence, Regularization


Esquema


© 2024  The Author(s). Publicado por Elsevier Masson SAS. Todos los derechos reservados.
Añadir a mi biblioteca Eliminar de mi biblioteca Imprimir
Exportación

    Exportación citas

  • Fichero

  • Contenido

Vol 5 - N° 1

Artículo 100182- mars 2025 Regresar al número
Artículo precedente Artículo precedente
  • Design of a computational intelligence system for detection of multiple sclerosis with visual evoked potentials
  • Moussa Mohsenpourian, Amir Abolfazl Suratgar, Heidar Ali Talebi, Mahsa Arzani, Abdorreza Naser Moghadasi, Seyed Matin Malakouti, Mohammad Bagher Menhaj
| Artículo siguiente Artículo siguiente
  • Deep learning-based edge detection for random natural images
  • Kanija Muntarina, Rafid Mostafiz, Sumaita Binte Shorif, Mohammad Shorif Uddin

Bienvenido a EM-consulte, la referencia de los profesionales de la salud.

Mi cuenta


Declaración CNIL

EM-CONSULTE.COM se declara a la CNIL, la declaración N º 1286925.

En virtud de la Ley N º 78-17 del 6 de enero de 1978, relativa a las computadoras, archivos y libertades, usted tiene el derecho de oposición (art.26 de la ley), el acceso (art.34 a 38 Ley), y correcta (artículo 36 de la ley) los datos que le conciernen. Por lo tanto, usted puede pedir que se corrija, complementado, clarificado, actualizado o suprimido información sobre usted que son inexactos, incompletos, engañosos, obsoletos o cuya recogida o de conservación o uso está prohibido.
La información personal sobre los visitantes de nuestro sitio, incluyendo su identidad, son confidenciales.
El jefe del sitio en el honor se compromete a respetar la confidencialidad de los requisitos legales aplicables en Francia y no de revelar dicha información a terceros.


Todo el contenido en este sitio: Copyright © 2024 Elsevier, sus licenciantes y colaboradores. Se reservan todos los derechos, incluidos los de minería de texto y datos, entrenamiento de IA y tecnologías similares. Para todo el contenido de acceso abierto, se aplican los términos de licencia de Creative Commons.