OpenAI, Google, Microsoft a Anthropic spolupracují na regulaci vývoje AI

Photo of author

By etechblogcz

Zdravím vás! 🙋 Dnes pro vás máme přehled nejnovějších aktualizací produktů! 📣

Společnosti OpenAI, Google, Microsoft a Anthropic spojují síly k regulaci vývoje umělé inteligence

Čtyři významní hráči na poli umělé inteligence – OpenAI, Microsoft, Google a Anthropic – se sjednotili a založili Fórum pro hraniční modely. Cílem tohoto průmyslového sdružení je dohlížet na to, aby vývoj umělé inteligence a modelů strojového učení, známých jako „hraniční AI“, probíhal bezpečným a zodpovědným způsobem.

Společnost OpenAI poprvé použila termín „hraniční AI“ v dokumentu z 6. července. Označuje modely, které mohou představovat riziko pro veřejnou bezpečnost.

Mezi hlavní cíle tohoto fóra patří:

  • Podpora výzkumu v oblasti bezpečnosti umělé inteligence.
  • Definování standardů pro vývoj a implementaci hraničních modelů.
  • Navazování spolupráce s relevantními zainteresovanými stranami.
  • Podpora využití umělé inteligence k řešení společenských výzev.

Vznik Fóra pro hraniční modely dokazuje odhodlání průmyslu řešit otázky bezpečnosti a proaktivní přístup technologických gigantů k regulaci prostřednictvím společných iniciativ.

Společnost Protect AI se specializuje na bezpečnostní skenování a ochranu systémů strojového učení a umělé inteligence s cílem zajistit bezpečné a souladné modely a aplikace. Nabízí přehled o potenciálních hrozbách, testování zabezpečení a řešení problémů v systémech umělé inteligence a strojového učení.

Společnost získala 35 milionů dolarů v rámci série A financování, které vedla společnost Evolution Equity Partners za účasti Salesforce Ventures a stávajících investorů. Celkově společnost dosud získala 48,5 milionu dolarů na podporu organizací v ochraně systémů ML a AI před specifickými bezpečnostními riziky, narušením dat a novými hrozbami.

NB Defense Protect AI chrání notebooky Jupyter Lab, čímž zvyšuje produktivitu a efektivitu spolupráce. Snižuje rizika, prověřuje bezpečnostní problémy a poskytuje důležité informace. Nástroje umělé inteligence automaticky zabezpečují dodavatelský řetězec softwaru ML, skenují ho a opravují zjištěné problémy.

Trustmi získává 17 milionů dolarů na rozšíření technologie pro prevenci platebních podvodů

Společnost Trustmi využívá umělou inteligenci, strojové učení a data k proaktivní identifikaci a prevenci podvodných transakcí. Platforma nabízí řadu funkcí, které podnikům umožňují posílit zabezpečení plateb.

Mezi hlavní funkce patří:

  • Monitorování plateb z hlediska podezřelé aktivity, jako jsou transakce z vysoce rizikových zemí nebo platby neznámým obchodníkům.
  • Ověřování plateb křížovou kontrolou s externími zdroji dat, včetně černých listin kreditních karet a seznamů dodavatelů.
  • Poskytování uživatelům možnosti kontroly plateb, což umožňuje schvalovat či odmítat platby a nastavovat limity pro konkrétní dodavatele.

Společnost získala 17 milionů dolarů v rámci série A, čímž se celková výše investic zvýšila na 21 milionů dolarů. Kolo financování vedla společnost Cyberstarts za účasti Zeev Ventures.

Další aktualizace naleznete v kategorii Nejnovější technologie.