Lanserar särskilt team för att tackla vilseledande AI-innehåll.
Tidigare i februari gick Tiktok ut med att de kommer att öppna upp särskilda digitala “valcentrum”, för att säkerställa att användarna kan hitta pålitlig och granskad information inför valet.
Nu har även Meta presenterat åtgärder för att försöka stoppa vilseledande innehåll från att påverka valet, inte minst AI-genererat innehåll. Enligt ett uttalande från företagets EU-ansvarige, Marco Pancini, kommer Meta att sätta samman “ett EU-specifikt valoperationscenter”. Syftet är att "identifiera potentiella hot och sätta specifika begränsningar på plats över våra appar och teknologier i realtid".
Sedan 2016 har vi investerat mer än 20 miljarder dollar i säkerhetsåtgärder och fyrdubblat storleken på vårt globala team som arbetar i detta område till cirka 40 000 personer, skrev han i ett officiellt uttalande på Metas informationssida.
Detta inkluderar 15 000 innehållsgranskare som granskar innehåll på Facebook, Instagram och Threads på mer än 70 språk - inklusive alla 24 officiella EU-språk.
Samarbete i branschen
Meta arbetar för närvarande med 26 faktakontrollerande organisationer över hela EU men meddelar nu att de kommer ta in ytterligare partners, baserade i Bulgarien, Frankrike och Slovakien. Man säger sig också ha arbetat med andra företag i branschen för att sätta upp gemensamma standarder och riktlinjer.
Innehåll som sprider felaktig information, eller innehåller AI-genererade element kommer att få varningsetiketter och göras mindre framträdande. De kommer inte heller att tillåtas i annonser. Inlägg som direkt försöker underminera röstningen är helt förbjudna.
Detta arbete är större än något företag och kommer att kräva en enorm insats inom industrin, regeringen och civilsamhället.