Strona główna TECHNOLOGIA Sztuczna inteligencja dekoduje oinks, aby sprawdzić, czy świnie mają się dobrze

Sztuczna inteligencja dekoduje oinks, aby sprawdzić, czy świnie mają się dobrze

5
0

Jak zwykle jest wiele do powiedzenia w szybko zmieniającym się świecie generatywnej sztucznej inteligencji, od nowych przepisów administracji Bidena dotyczących wykorzystania sztucznej inteligencji przez rząd po zakaz Federalnej Komisji Handlu wystawiania opinii klientów generowanych przez sztuczną inteligencję po pytania o to, czy Gra o tron ​​generowana przez sztuczną inteligencję bohater doprowadził do tragicznego samobójstwa 14-letniego chłopca.

Odznaka z grafiką AI Atlas Odznaka z grafiką AI Atlas

Poniżej przejdę do niektórych z tych wiadomości. Aby jednak pozytywnie myśleć o tym, jak sztuczna inteligencja genu może pomóc nam zrozumieć właściwie wszystko, zacznijmy od tego: europejscy naukowcy opracowali algorytm sztucznej inteligencji, który interpretuje dźwięki wydawane przez świnie, aby służyć jako rodzaj systemu wczesnego ostrzegania dla rolników, gdy trzeba pocieszyć ich zwierzęta.

Pod nagłówkiem „AI dekoduje okrzyki i chrząknięcia, aby uszczęśliwić świnie” – Reuters zgłoszone że algorytm „może potencjalnie ostrzegać rolników o negatywnych emocjach u świń”, aby mogli interweniować i poprawić dobrostan zwierząt. Serwis informacyjny rozmawiał z Elodie Mandel-Briefer, biologiem behawioralnym na Uniwersytecie w Kopenhadze, która współprzewodniczyła temu projektowi.

Naukowcy z uniwersytetów w Danii, Czechach, Francji, Niemczech, Norwegii i Szwajcarii „wykorzystali tysiące nagranych odgłosów świń w różnych scenariuszach, obejmujących zabawę, izolację i rywalizację o jedzenie, aby odkryć, że chrząkanie, okrzyki i piski ujawniają pozytywne lub negatywne skutki emocje” – podał Reuters. Mandel-Briefer powiedział agencji prasowej, że chociaż dobry rolnik będzie mógł wyczuć, jak radzą sobie świnie, po prostu obserwując je w zagrodach, obecnie stosowane narzędzia kładą duży nacisk na kondycję fizyczną zwierzęcia.

„Emocje zwierząt mają kluczowe znaczenie dla ich dobrostanu, ale na farmach nie mierzymy ich zbytnio” – powiedziała Reuterowi.

Jeśli tak jak ja jesteś fanem Babe and Charlotte’s Web, prawdopodobnie kiwasz głową i mówisz, że oczywiście powinniśmy zwracać uwagę na uczucia zwierząt. Być może zastanawiasz się także: czy to nie niezwykłe, że sztuczna inteligencja może nam pomóc – jeśli nie rozmawiać ze zwierzętami, jak doktor Dolittle czy Eliza Thornberry – to przynajmniej dać rolnikom przydatny koralik na temat wewnętrznego życia stworzenia?

Biorąc pod uwagę, że badacze używali sztucznej inteligencji również do dekodowania dźwięków wydawanych przez słonie, co doprowadziło ich do takiego wniosku słonie mówią do siebie po imieniu Podobnie jak my, ludzie, jestem optymistą, że chatbot tłumaczący podobny do Dolittle/Thornberry nie jest tak daleko.

Oto inne działania związane ze sztuczną inteligencją, na które warto zwrócić uwagę.

Apple Intelligence w pewnym sensie zmierza w naszą stronę

Użytkownicy Apple wkrótce zaczną widzieć niektóre narzędzia AI generacji obiecane w ramach wdrożenia Apple Intelligence, kiedy technologiczny gigant opublikuje w tym tygodniu aktualizacje oprogramowania dla iPhone’a, iPada i komputera Mac.

iOS 18.1 zawiera garść funkcji Apple Intelligence, „takich jak narzędzia do pisania sugerowane przez sztuczną inteligencję, które pojawiają się w dokumentach lub e-mailach, narzędzia do zdjęć, w tym Clean Up w celu usunięcia niechcianych części obrazu, a także szereg zmian Siri” – recenzenci CNET Scott Stein i Patrick Holland doniósł. „Najbardziej rzucające się w oczy zmiany w Siri obejmują nowy głos, który ma brzmieć bardziej naturalnie, możliwość zrozumienia kontekstu rozmów, nową świecącą ramkę wokół wyświetlacza, gdy Siri jest uruchomiona, oraz nowy gest podwójnego dotknięcia na dole ekranu ekranie, aby pisać do Siri.”

Dodają jedno zastrzeżenie: „Chociaż niektóre funkcje sztucznej inteligencji Apple wydają się naprawdę przydatne, ich wdrożenie będzie ograniczone do niektórych iPhone’ów, iPadów i komputerów Mac jeszcze w tym roku (modele iPhone’a 15 Pro lub nowsze oraz komputery Mac i iPady z chipami z serii M). oznacza, że ​​nie będą używane przez wszystkich.”

O co chodzi z powolnym, ograniczonym wdrażaniem sztucznej inteligencji przez firmę Apple, która jest postrzegana jako pozostająca w tyle za swoimi rywalami, w tym Microsoftem i Google, jeśli chodzi o narzędzia AI generacji? Szef oprogramowania Apple, Craig Federighi, powiedział Joanna Stern z The Wall Street Journal twierdzi, że firma stosuje wyważone podejście do gen. AI, ponieważ Apple koncentruje się na prywatności i odpowiedzialnym korzystaniu ze sztucznej inteligencji.

„Można coś tam wystawić i zrobić z tego niezły bałagan” – powiedział Federighi Sternowi. „Punkt widzenia Apple jest raczej taki: «Spróbujmy dopracować każdy element i wypuścić go, gdy będzie gotowy»”.

A może Apple jest tuż za nami swoich rywali, jak spekulują niektórzy.

Ja na przykład czekam, żeby pobawić się Genmoji, co moim zdaniem może być kreatywnym sposobem na zapewnienie użytkownikom Apple komfortu w pisaniu podpowiedzi gen AI. Szczegóły tutaj.

FTC zakazuje fałszywych – i generowanych przez sztuczną inteligencję – recenzji i referencji

Było wiele, wiele historii kwestionujących, czy powinieneś wierz opiniom i opiniom klientów rzekomo napisane przez przeciętnych ludzi w witrynach takich jak Amazon i Yelp. Obecnie amerykańska Federalna Komisja Handlu pragnie zaoszczędzić czas i pieniądze konsumentów dzięki nowej zasadzie, która między innymi zabrania „fałszywych lub fałszywych recenzji konsumenckich… które fałszywie przedstawiają, że zostały sporządzone przez osobę nieistniejącą, np. fałszywe recenzje” – FTC powiedział w wydaniu.

Powiadomienie o zapisie do biuletynu AI Atlas Powiadomienie o zapisie do biuletynu AI Atlas

„Fałszywe recenzje nie tylko marnują czas i pieniądze ludzi, ale także zanieczyszczają rynek i odciągają biznes od uczciwych konkurentów” – stwierdziła przewodnicząca FTC Lina Khan w sierpniowym komunikacie, który skupiał się na zasadach obowiązujących w zeszłym tygodniu. Zasady zabraniają również sprzedaży lub zakupu recenzji online.

Pisarka CNET Samantha Kelly zauważyła, że ​​nowa zasada ma zastosowanie do przyszłych recenzji. „Według platformy marketingowej Uberall około 90% osób podczas zakupów online polega na opiniach” – napisała Kelly. „Chociaż nie jest jasne, w jaki sposób FTC będzie egzekwować tę zasadę, może zdecydować się na zbadanie kilku głośnych spraw, aby dać przykład. szukać kar do 51 744 dolarów za każde naruszenie.”

Jeśli uważasz, że recenzja jest fałszywa, możesz zgłosić ją do FTC Tutaj.

Do Twojej wiadomości: wszystkie recenzje CNET są przeprowadzane przez naszych pracowników i zgodnie z naszą polityką dotyczącą sztucznej inteligencji nie używamy narzędzi sztucznej inteligencji do przeprowadzania żadnych praktycznych testów opartych na produktach, które stanowią podstawę naszych recenzji i ocen – „z wyjątkiem przypadkach, gdy przeglądamy i oceniamy same narzędzia AI i musimy wygenerować przykłady ich wyników, tak jak robimy to w przypadku AI Atlas, naszego stworzonego przez ludzi kompendium wiadomości i informacji o sztucznej inteligencji”.

Zdaniem Elona Muska imitacja sztucznej inteligencji może być najszczerszą formą kradzieży

Firma produkcyjna, która przyniosła nam film Blade Runner 2049, nie jest zachwycona Elonem Muskiem. Alcon Entertainment twierdzi, że prezentując robotaxi Tesli podczas październikowego debiutu pojazdu, miliarder wykorzystał obrazy wygenerowane przez sztuczną inteligencję, które według niego zbyt wiernie kopiują obrazy z filmu z 2017 roku.

Jak wynika z 41-stronicowego pozwu Alcon, który pozywa Teslę, jego dyrektor generalny Musk i dystrybutor filmu, Warner Bros., oświadczyli, że zapytano ich o wykorzystanie „kultowego nieruchomego obrazu” z filmu do promocji nowego Cybercaba Tesli. które możesz przeczytać Tutaj).

„Alcon odmówił wszelkich zezwoleń i stanowczo sprzeciwił się sugerowaniu przez pozwanych jakichkolwiek powiązań pomiędzy BR2049 a Teslą, Muskiem lub jakąkolwiek firmą należącą do Muska” – czytamy w pozwie. „Następnie oskarżeni i tak wykorzystali do tego wszystkiego fałszywy obraz najwyraźniej wygenerowany przez sztuczną inteligencję”.

Zdjęcia, o których mowa, można zobaczyć w tę historię przez BBC, które poinformowało, że Musk wspomniał w przeszłości o oryginalnym filmie Blade Runner i zasugerował, że „w pewnym momencie był on źródłem inspiracji dla Cybertrucka Tesli”.

Tesla i Warner Bros. nie odpowiedziały na różne prośby mediów o komentarz. „Musk zdecydował się na tryb trolla, odpowiadając na wieści o procesie sądowym – powiedział [in an X post] ’Ten film był do bani’ — zamiast zajmować się szczegółami skargi, „Variety zgłoszone. „Washington Post”. znakomity że Musk wspomniał o Blade Runnerze podczas Wprowadzenie Cybercaba. „Uwielbiam Blade Runnera, ale nie wiem, czy chcemy takiej przyszłości” – powiedział Musk. „Myślę, że chcemy tego prochowca [coat] ma na sobie, ale, uh, ale nie ponurą apokalipsę. Chcemy mieć zabawną i ekscytującą przyszłość.”

Wydarzenie robotaxi Tesli — zatytułowane My, Robot — skłoniło także reżysera Alexa Proyasa do wskazania podobieństw do projektów filmu „Ja, robot” z 2004 roku opartego na opowiadaniach Isaaca Asimova. „Hej, Elon, czy mogę prosić o zwrot moich projektów?” Proyas napisał w poście na X, który wyświetlono 8,1 miliona razy.

Sygnalista OpenAI powołuje się na obawy dotyczące praw autorskich, Perplexity pozwany

Wydawcy i firmy zajmujące się sztuczną inteligencją aktywnie spierają się o to, czy twórcy dużych modeli językowych, na których opierają się chatboty generujące sztuczną inteligencję (takie jak ChatGPT, Anthropic i Perplexity), mogą pobierać treści z Internetu, w tym materiały chronione prawem autorskim, w celu szkolenia swoich modeli. Wydawcy mówią nie, w szczególności „The New York Times”. Pozywa OpenAI i Microsoftu. Firmy zajmujące się sztuczną inteligencją twierdzą, że działają zgodnie z wytycznymi dotyczącymi dozwolonego użytku i nie muszą rekompensować właścicieli praw autorskich ani prosić o pozwolenie.

W zeszłym tygodniu „The Times”. zgłoszone że były badacz OpenAI zaangażowany w gromadzenie materiałów z Internetu w celu zasilania ChatGPT uważa, że ​​wykorzystywanie przez OpenAI danych chronionych prawem autorskim łamie prawo. Podczas serii wywiadów Suchir Balaji, który przez cztery lata pracował w OpenAI, podzielił się z gazetą swoimi obawami. „ChatGPT i inne chatboty, jego zdaniem, niszczą rentowność komercyjną osób, firm i usług internetowych, które stworzyły dane cyfrowe wykorzystywane do szkolenia systemów sztucznej inteligencji” – podaje „Los Angeles Times”.

„To nie jest zrównoważony model dla całego ekosystemu internetowego” – powiedział Balaji gazecie.

W odpowiedzi na twierdzenia Balaji OpenAI powtórzyło, że gromadzi treści z Internetu „w sposób chroniony przez dozwolony użytek”. I przypadkiem (lub nie) OpenAI i Microsoft ogłosiły, że przekażą po 5 milionów dolarów w gotówce i usługach technologicznych na finansowanie projektów informacyjnych skupiających się na wdrażaniu sztucznej inteligencji w pięciu dużych miejskich dziennikach informacyjnych.

Tymczasem Perplexity AI zostało pozwane przez Dow Jones i New York Daily News, których właścicielem jest potentat medialny Rupert Murdoch. Firmy medialne stwierdziły, że startup AI angażuje się w „ogromna ilość nielegalnego kopiowania” ich dzieł chronionych prawem autorskim. Reuters również znakomity że na początku tego miesiąca NYT wysłał firmie Perplexity zawiadomienie o zaprzestaniu działalności, „żądając zaprzestania wykorzystywania treści gazety do celów generatywnej sztucznej inteligencji”.

W odpowiedzi na pozew Dow Jonesa dyrektor generalny Perplexity Aravind Srinivas: powiedział Reuters, że był „zaskoczony” i że firma jest otwarta na rozmowy z wydawcami w sprawie licencjonowania ich treści. Nastąpiło to po tym, jak Wired i Forbes oskarżyły Perplexity o plagiat ich treści, co skłoniło wyszukiwarkę AI do uruchomienia program podziału dochodów z wydawcami.

Warto też wiedzieć…

Poproszony o podzielenie się swoimi poglądami na temat technologii, reżyser Spike Lee powiedział, że „boi się” sztucznej inteligencji. Lee przemawiał w ramach serii wykładów organizowanych przez Gibbes Museum of Art. „Byłam w swoim pokoju hotelowym, przeglądałam Instagram i oni mają te rzeczy [with] dolna trzecia twierdzi, że jest to sztuczna inteligencja, ale sytuacja jest taka, że ​​ludzie mówią dokładnie odwrotnie niż ci ludzie. Więc nie wiesz, co jest co i to jest przerażające. To przerażające” – powiedział Lee, twórca klasycznych filmów, w tym „Rób, co należy” i „Malcolm X”. „Po prostu myślę, że… czasami technologia może posunąć się za daleko”. Film z wydarzenia jest dostępny w serwisie YouTube Tutaj. Komentarze AI Lee pojawiają się tuż przed 57 minutą.

Jeśli szukasz lekcji na temat korzystania z narzędzi AI gen. Carly Quellman, specjalistka CNET, przedstawia swoją recenzję trzyczęściowej serii MasterClass na temat wykorzystania sztucznej inteligencji.

Administracja Bidena opublikowała memorandum określające, w jaki sposób „Pentagon, agencje wywiadowcze i inne instytucje bezpieczeństwa narodowego powinny wykorzystywać i chronić technologię sztucznej inteligencji, stawiając„ poręcze ”przed wykorzystaniem takich narzędzi przy podejmowaniu różnych decyzji, od broni nuklearnej po udzielenie azylu”. New York Timesa zgłoszone. Możesz przeczytać memorandum Tutaj.

Naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, mowić opracowali system głębokiego uczenia się oparty na sztucznej inteligencji, który „szybko uczy się automatycznego analizowania i diagnozowania rezonansu magnetycznego i innych trójwymiarowych obrazów medycznych — z dokładnością dorównującą specjalistom medycznym w ułamku czasu”.



Źródło artykułu