Zdravím vás! 🙋 Dnes pro vás máme přehled nejnovějších aktualizací produktů! 📣
Společnosti OpenAI, Google, Microsoft a Anthropic spojují síly k regulaci vývoje umělé inteligence
Čtyři významní hráči na poli umělé inteligence – OpenAI, Microsoft, Google a Anthropic – se sjednotili a založili Fórum pro hraniční modely. Cílem tohoto průmyslového sdružení je dohlížet na to, aby vývoj umělé inteligence a modelů strojového učení, známých jako „hraniční AI“, probíhal bezpečným a zodpovědným způsobem.
Společnost OpenAI poprvé použila termín „hraniční AI“ v dokumentu z 6. července. Označuje modely, které mohou představovat riziko pro veřejnou bezpečnost.
Mezi hlavní cíle tohoto fóra patří:
- Podpora výzkumu v oblasti bezpečnosti umělé inteligence.
- Definování standardů pro vývoj a implementaci hraničních modelů.
- Navazování spolupráce s relevantními zainteresovanými stranami.
- Podpora využití umělé inteligence k řešení společenských výzev.
Vznik Fóra pro hraniční modely dokazuje odhodlání průmyslu řešit otázky bezpečnosti a proaktivní přístup technologických gigantů k regulaci prostřednictvím společných iniciativ.
Společnost Protect AI se specializuje na bezpečnostní skenování a ochranu systémů strojového učení a umělé inteligence s cílem zajistit bezpečné a souladné modely a aplikace. Nabízí přehled o potenciálních hrozbách, testování zabezpečení a řešení problémů v systémech umělé inteligence a strojového učení.
Společnost získala 35 milionů dolarů v rámci série A financování, které vedla společnost Evolution Equity Partners za účasti Salesforce Ventures a stávajících investorů. Celkově společnost dosud získala 48,5 milionu dolarů na podporu organizací v ochraně systémů ML a AI před specifickými bezpečnostními riziky, narušením dat a novými hrozbami.
NB Defense Protect AI chrání notebooky Jupyter Lab, čímž zvyšuje produktivitu a efektivitu spolupráce. Snižuje rizika, prověřuje bezpečnostní problémy a poskytuje důležité informace. Nástroje umělé inteligence automaticky zabezpečují dodavatelský řetězec softwaru ML, skenují ho a opravují zjištěné problémy.
Trustmi získává 17 milionů dolarů na rozšíření technologie pro prevenci platebních podvodů
Společnost Trustmi využívá umělou inteligenci, strojové učení a data k proaktivní identifikaci a prevenci podvodných transakcí. Platforma nabízí řadu funkcí, které podnikům umožňují posílit zabezpečení plateb.

Mezi hlavní funkce patří:
- Monitorování plateb z hlediska podezřelé aktivity, jako jsou transakce z vysoce rizikových zemí nebo platby neznámým obchodníkům.
- Ověřování plateb křížovou kontrolou s externími zdroji dat, včetně černých listin kreditních karet a seznamů dodavatelů.
- Poskytování uživatelům možnosti kontroly plateb, což umožňuje schvalovat či odmítat platby a nastavovat limity pro konkrétní dodavatele.
Společnost získala 17 milionů dolarů v rámci série A, čímž se celková výše investic zvýšila na 21 milionů dolarů. Kolo financování vedla společnost Cyberstarts za účasti Zeev Ventures.
Další aktualizace naleznete v kategorii Nejnovější technologie.