Le comité de contrôle de l'État, présidé par le député Alon Schuster (Bleu et blanc – Parti d'unité nationale), s'est réuni mercredi pour discuter des opérations d'influence cybernétique, des campagnes d'influence et des mesures prises par l'État pour faire face aux fausses informations à l'approche de l'année électorale. Le débat s'est déroulé sur fond de menaces croissantes pour l'intégrité des élections à l'ère numérique, et à la lumière de l'annonce du Contrôleur de l'État qu'un audit est en cours sur la question.
Le président du comité, le député Schuster : « La capacité d'usurper une identité, la diffusion de fausses informations et la transition accélérée de la consommation d'informations des médias établis vers les plateformes numériques réduisent considérablement la capacité des autorités à faire face à la menace. Nous voyons de nombreux exemples dans le monde de campagnes d'influence qui sont intervenues dans les procédures électorales et ont même modifié les résultats. Ce n'est pas une question politique de droite ou de gauche, c'est une question qui touche au cœur de la démocratie. Alors que nous entrons dans une année électorale, il est de notre obligation de veiller à ce que l'État soit préparé à cette question de manière optimale, certainement après que le Contrôleur de l'État a annoncé qu'un rapport était en préparation sur la question et a signalé des défaillances. »
Yuval Hayo du Bureau du Contrôleur de l'État a déclaré : « Le bureau a mis en place du personnel dédié pour traiter les systèmes cybernétiques et informatiques, tout en se concentrant sur l'identification des risques futurs. Depuis 2020, après la période de COVID-19, et avec une intensité accrue lors du déclenchement de la guerre Épées de fer, le bureau a commencé à traiter un rapport examinant le domaine de la conscience [publique], et la question de savoir si l'État identifie, localise et traite les risques évolutifs. C'est une question fondamentale et dynamique, qui se met à jour chaque mois et prend de nouvelles formes, elle nécessite donc une surveillance continue et des préparatifs constants. Le gouvernement n'est pas toujours dans une situation sophistiquée qui permet une discussion approfondie de la question. Le domaine de la suppression de contenu est examiné par le Bureau du Contrôleur de l'État avec une grande sensibilité, avec la nécessité d'établir des résolutions précises et d'offrir une réponse dédiée pour les urgences. Au-delà des actions du gouvernement, les domaines de l'éducation publique et de la littératie publique sont également examinés, dans le cadre de l'image globale. »
Orly Ades, directrice générale de la Commission électorale centrale (CEC) : « Nous avons reçu le projet de rapport du Bureau du Contrôleur de l'État. Ce qui en ressort, c'est que les conclusions ont été tirées avant même que nos positions aient été entendues – et cela n'arrive généralement pas. Si la position de la CEC avait été entendue auparavant, les conclusions du rapport auraient pu changer. Le principal outil à la disposition de la CEC est le traitement des plaintes qui sont soumises en pratique ; le président de la CEC ne peut pas initier une discussion de sa propre initiative. La question est de savoir si nous voulons que le président de la Commission électorale centrale devienne un censeur politique.
« Les questions d'IA ne sont pas nouvelles et ont déjà été discutées devant le président de la commission. Même si tous les outils possibles sont à notre disposition, il n'y a aucun moyen de « nettoyer » Internet avant les élections – dans une réalité où chaque citoyen peut créer une vidéo ou une campagne en appuyant sur un bouton. La CEC ne vit pas dans le vide. Nous sommes conscients des préoccupations et des menaces et nous opérons en conséquence. La commission prévoit de réaliser une série d'actions et est prête à faire face à la question, mais dans les limites des outils et des pouvoirs qui lui sont conférés par la loi. Si le législateur estime que les outils ne sont pas adéquats, il devrait fournir d'autres outils à la commission. La loi sur les élections et les méthodes de propagande est une loi sensible, et toute tentative de la modifier soulève des intérêts politiques. La CEC n'initie pas d'amendements législatifs dans ce domaine. Peut-être, à l'instar de l'Union européenne, sera-t-il nécessaire à l'avenir de marquer le contenu créé par l'intelligence artificielle. Parallèlement à la législation, les défis peuvent également être relevés par l'éducation à la littératie numérique, la suppression de contenu par des moyens légaux, l'action volontaire des plateformes et l'utilisation d'outils d'identification de contenu », a déclaré Ades.
Nir Kammay de la Direction nationale israélienne de la cybersécurité (INCD) : « Il existe des organisations qui opèrent en envoyant des SMS sous de faux prétextes et par divers moyens, et l'INCD s'efforce d'enquêter sur les événements et d'empêcher leur diffusion. Nous opérons selon des classements clairs de la gravité de l'attaque – de la menace au niveau de l'État, en passant par les campagnes d'influence, jusqu'aux événements potentiellement préjudiciables. La mise en place de bots, la création de faux profils et les campagnes de psy-op ne relèvent pas de la responsabilité directe de l'INCD – seulement lorsque l'organisation attaque et s'infiltre dans un autre système. »





























