27.03.23, 19:37
Ostatnio na ten temat piszemy dużo i wszędzie (gdzie popadnie), że trochę trudno się połapać.
To może piszmy tu na ten temat?

Wygląda na to, że jest coraz więcej czatów ai i każdy z nich chce być uznawany za najlepszy.
www.zdnet.com/article/best-ai-chatbot/
Jedno co pewne, ich ulepszanie idzie w zawrotnym tempie.
Oglądałam program z udziałem znawców.
Okazuje się, że kilka dni temu, w Houston, odbywała się (już nie pierwsza) konferencja dotycząca bezpieczeństwa korzystania z tej nowej dla jednych "zabawki" a dla innych narzędzia pracy.
Obserwuj wątek
    • kalllka Re: ai 27.03.23, 20:27
      A mam pytanko; jakie były wnioski konferencji w Houston; a dokładniej to z czym jest związane niebezpieczeństwo używania ai.
      Generalnie, jak byś mogła opisac.
      • elissa2 Re: ai 27.03.23, 23:24
        takie był program/cel tej konferencji [International Conference on AI in Cybersecurity (ICAIC)]:
        The main objective of ICAIC'2023 is to present the research from different application of AI and Cybersecurity in Business, Healthcare, Management, Environmental Science, Engineering, and Social Science. This conference provides a platform for researchers and scientists across the world to exchange and share their experiences and research results about all aspects of Business, Management, Environmental, and Social Science. This conference also provides an opportunity to interact and establish professional relations for future collaboration. The conference aims to promote innovations and work of researchers, engineers, students and scientists from across the world on Advancement in eBusiness, Management, Environmental, and Social Science. The basic idea of the conference is what more can be done using the existing technology, and resources.

        "Zakłada się, że ta technologia może mieć ciemną stronę, bo oprócz ułatwiania życia i pracy ludziom, służenia rozrywce, może być również pomocna np.handlarzom i producentom broni, przestępcom, hackerom itd
        I dlatego w Europie trwają intensywne prace nad regulacjami/ustawami, które narzucą twórcom takich programów konieczność uzyskania "znaku jakości"/certyfikatu a co za tym idzie ich zabezpieczenia (algorytmami)" - powiedziała Alexandra van Huffelen, minister cyfryzacji, która W Houston reprezentowała NL
        "W Houston obecni byli też producenci, których dopytywano czy sami już teraz robią coś w kierunku bezpieczeństwa. Twierdzą, że tak, że wbudowują bariery (guardrails)"

        www.ft.com/content/3e27cfd6-e287-4b6f-a588-29b5b962a534
        • kalllka Re: ai 28.03.23, 19:22
          Jak rozumiem celem konferencji jest by-„znak jakości”-AI-mial znaczenie międzynarodowe
          i z czasem przyjął status aktu prawnego jak ACTA /?/
    • a_iii_ty Re: ai 27.03.23, 20:27
      ai_ty
      • kalllka Re: ai 27.03.23, 20:28
        E.T.
    • krytyk2 Re: ai 27.03.23, 21:22
      mnie się wydaje ,że jest to raczej jeszcze jedna nowa zabawka,za którą nie pójdzie nic "poważnego"
      Dlaczego tak myślę?
      W każdej "ludzkiej" literackiej aktywności o coś chodzi,tj autor ma jakiś cel ,jakiś przekaz i używa okreslonych historii czy nawet środków stylistycznych.Czuwajacy podmiot stale monitoruje pod kątem swoich zamiarów ,czy to co przed chwilą przyszło mu do głowy, jest dobrym narzędziem ich formułowania.Pomijając maniere czy styl pisania ,osoba pisząca konstruuje wciąż inne wariacje w zasadzie tego samego mikroświata.Sztuczna inteligencja ,czy raczej literatura sztucznej inteligencji, pozbawiona jest tego delikatnego,wciąż poszukującego uważnego podmiotu,który niezauważalnie prowadzi czytelnika po meandrach swojego świata.Może macie jakies doświadczenie czytelnicze ,które podważa to co pisze -chętnie posłucham .Ale fragmenty zacytowane przez Shachar niestety zbliżają mnie do takich wniosków jak powyższe
      • elissa2 Re: ai 27.03.23, 23:42
        Te programy są jeszcze niedoskonałe a już teraz wiele grup zawodowych z nich korzysta, co bardzo ułatwia im pracę i zwiększa wydajność
        programiści (ponoć prawie połowę ich pracy wykonuje za nich ai), analitycy finansowi, konsultanci, prawnicy, urzędnicy itd

        Jeśli chodzi o twórczość, nie sądzę, żeby jednak bezduszna ai potrafiła stworzyć dzieła. Albo wcale albo jeszcze długo, długo nie.
        Przychodzi mi na myśl takie porównanie. Muzycy z Azji, przede wszystkim Japończycy, świetni technicznie, przyjeżdżają do Europy, żeby złapać bakcyla, żeby nauczyć się ekspresji, żeby łączyć technikę z uczuciami.
    • jan_stereo Re: ai 27.03.23, 21:45
      Wchodza w zycie i wnet je nam zdominuja, zapewne beda czescia sluzby zdrowia jesli idzie o pierwsza porade, zwlaszcza w krajach gdzie nie mozna sie dopchac biednym do opieki zdrowotnej, stana sie wyposarzeniem domu, jak komputer i tv, byc moze nawet ludzkim psychoanalitykiem i rozmowca dostepnym 24/7.

      Jeden biznesmen z Hiszpanii zrobil czatbota (opnAI) w wersji najnowsze, 4 (wersja platna), CEO nowej girmy produkujacej koszulki. Ai napisal program, strategie dzialania i podejmuje analize rynku, wycene i pozyskiwanie sponsorow, projekt graficzny koszulek, itp.

      Wyszlo ze zamowien dostali tyle ze nie byli w stanie sprostac produkcji, choc tutaj zapewne zawazyla ta nowosc, ze AI moglo byc CEO , zamiast czlowieka.

      Tak wiec wyscig zbrojen sie zaczal. Warto tez przesledzic postepy AI w grze GO (Alpha Go) i szachach (Alpha Zero), w tych ostatnich dosc szybko zdominowaly ludzkich graczy i to dosc podstawowe modele, a w grze GO, ktora ma niewiarygodna liczbe wariacji oraz uwaza sie ze wymaga niezwyklej 'intuicji' i kreatywnosci artystycznej niemalze, myslano ze bedzie to niemozliwe aby AI nawiazala rowna walke z czlowiekiem. W 2016 Alpha Go pokonalo arcymistrza Lee Sedelo i to dosc latwo, ten ugral tylko jedna partie, a teraz dominacja AI jest juz tylko wieksza, wrecz absolutna. Nie mowimy tutaj wcale o samej mocy przerobowej, ale o poteznej sieci neuronowej ktora sie potrafi sama uczyc i rozwijac (pokonujac swoje poprzednie wersje juz po kilku dniach nauki).

      Teraz tylko pytanie czy ludzie dopuszcza taka AI w procesie decyzyjnym, kiedy chodzi o energie, gospodarke, caly swiat, zwlaszcza, jesli przyjac ze kod AI nie bedzie jakos modyfikowany pod zyski danej grupy ludzi, a tym samym, AI stalaby sie nieprzekupna i niepodatna na polityczne rozgrywki. Tylko czy bedzie dane takiej AI publicznie oglaszac swoje (byc moze bardzo niepopularne) konkluzje, choc moze latwiej potem zwalic tez jest wine politykom na AI ;'))

      • kalllka Re: ai 29.03.23, 20:54
        Tam gdzie reguły sa bardzo klarowne, czarno białe- jak w szachach np. siła obliczeniowa ai znosi z powierzchni każdego z intuicyjnych graczy. Liczy się prędkość podejmowania (każdej) decyzji.
        Wiec nie na darmo mat w dwóch ruchach nazywany jest matem głupca/ fuksem
        czy zwycięstwem komputerowym.
        Proste: jeśli postawisz maszynie zadanie, ze ma tak myśleć , żeby zwyciężyć.. cel uzna za synonim zwycięstwa i za slowo-kluczowe.
        Obecnie programuje się ai w kierunku szukania alternatywy bazowego rozwiązania. I na tym maszyna polega… bo jak wiadomo, u człowieka sa ich minimum cztery..
      • rzeka.suf Re: ai 30.03.23, 02:56
        Ale czy naprawde nie mamy już tych rozwiązań wymyślonych? Chyba jedyne co może nas uratować bazuje na rewolucji świadomości w kierunku oswojenia naszych żądz. Super komputer, który nie forsowalby niczyich interesów, co mógłby powiedziec, jaką receptę dla świata podać poza współpraca wszystkich ze wszystkimi?
        • kalllka Re: ai 30.03.23, 13:34
          Mamy. Trzeba je tylko odpowiednio sformułować albo przeformułować.
          Moim zdaniem należałoby przestać myśleć o tym by maszyny uczyć.
          myślenie= nauka, to abstrakcyjna struktura poznawcza, niedostępna do przetworzenia dla procesorów, na których bazuje inteligencja.
    • jan_stereo Re: ai 27.03.23, 22:26
      Fajne porownanie mozliwosci i umiejetnosci pomiedzy niedawna wersja czatGPT (darmowa) czatbota i najnowsza, platna, GPT-4:

      openai.com/product/gpt-4
    • rzeka.suf Re: ai 28.03.23, 01:41
      Kiedy trendy stanie się astrofizyka, to też pewnie wszyscy zechcemy wygłosić swoją opinię w tej sprawie big_grin
      • jan_stereo Re: ai 28.03.23, 23:57
        Tyle ze astrofizyka raczej nie zejdzie pod ludzkie strzechy a AI tak i to wnet.
        • dodupiec1 Re: ai 29.03.23, 00:05
          niestety
        • rzeka.suf Re: ai 29.03.23, 03:24
          Tym bardziej chyba warto rzetelnie próbować zrozumieć zagadnienia związane z tym tematem.
          A co do popularności astrofizyki, to trend może się odwrócić: słyszałam, że statek-matka, the alien mothership, już jest tuż tuż, nadlatuje big_grin
          • a_iii_ty Re: ai 29.03.23, 03:28
            nie pij juz dzisiaj...
            • shachar Re: ai 29.03.23, 18:52
              W moim mniemaniu Sowa robi sobie podśmiechujki z JR teorii, że UFO zaczęło krążyć częściej nad nami po wybuchach atomowych w Japonii. Robią to wg Rogana, żebyśmy sobie kuku nie zrobili. uncertain
              A tu copy paste z NYT dzisiejszego, nic specjalnie nie powiedzieli, i ponadto nie ma treści tego dokumentu.

              Elon Musk and Others Call for Pause on A.I., Citing ‘Profound Risks to Society’

              More than 1,000 tech leaders, researchers and others signed an open letter that urged a moratorium on the development of the most powerful artificial intelligence systems.

              By Cade Metz and Gregory Schmidt
              March 29, 2023
              Updated 11:53 a.m. ET
              More than 1,000 technology leaders and researchers, including Elon Musk, have urged artificial intelligence labs to pause development of the most advanced systems, warning in an open letter that A.I. tools present “profound risks to society and humanity.”

              A.I. developers are “locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one — not even their creators — can understand, predict or reliably control,” according to the letter, which was released Wednesday by the nonprofit group Future of Life Institute.

              Others who signed the letter include Steve Wozniak, a co-founder of Apple; Andrew Yang, an entrepreneur and candidate in the 2020 U.S. presidential election; and Rachel Bronson, the president of the Bulletin of the Atomic Scientists, which sets the Doomsday Clock.

              “These things are shaping our world,” said Gary Marcus, an entrepreneur and academic who has long complained of flaws in A.I. systems, in an interview. “We have a perfect storm of corporate irresponsibility, widespread adoption, lack of regulation and a huge number of unknowns.”

              A.I. powers chatbots like ChatGPT, Microsoft’s Bing and Google’s Bard, which can perform humanlike conversations, create essays on an endless variety of topics and perform more complex tasks, like writing computer code.
              The push to develop more powerful chatbots has led to a race that could determine the next leaders of the tech industry. But these tools have been criticized for getting details wrong and their ability to spread misinformation.

              The open letter called for a pause in the development of A.I. systems more powerful than GPT-4, the chatbot introduced this month by the research lab OpenAI, which Mr. Musk co-founded. The pause would provide time to implement “shared safety protocols” for A.I. systems, the letter said. “If such a pause cannot be enacted quickly, governments should step in and institute a moratorium,” it added.

              Development of powerful A.I. systems should advance “only once we are confident that their effects will be positive and their risks will be manageable,” the letter said.
              A 90-Year-Old Tortoise Named Mr. Pickles Is a New Dad of Three
              “Humanity can enjoy a flourishing future with A.I.,” the letter said. “Having succeeded in creating powerful A.I. systems, we can now enjoy an ‘A.I. summer’ in which we reap the rewards, engineer these systems for the clear benefit of all and give society a chance to adapt.”

              GPT-4 is what A.I. researchers call a neural network, a type of mathematical system that learns skills by analyzing data. A neural network is the same technology that digital assistants like Siri and Alexa use to recognize spoken commands, and self-driving cars use to identify pedestrians.

              Around 2018, companies like Google and OpenAI began building neural networks that learned from massive amounts of digital text, including books, Wikipedia articles, chat logs and other information culled from the internet. The networks are called large language models, or L.L.M.s.

              By pinpointing billions of patterns in all that text, the L.L.M.s learn to generate text on their own, including tweets, term papers and computer programs. They could even carry on a conversation. Over the years, OpenAI and other companies have built L.L.M.s that learn from more and more data.

              This has improved their capabilities, but the systems still make mistakes. They often get facts wrong and will make up information without warning, a phenomenon that researchers call “hallucination.” Because the systems deliver all information with what seems like complete confidence, it is often difficult for people to tell what is right and what is wrong.

              Experts are worried that bad actors could use these systems to spread disinformation with more speed and efficiency than was possible in the past. They believe that these could even be used to coax behavior from people across the internet.

              Before GPT-4 was released, OpenAI asked outside researchers to test dangerous uses of the system. The researchers showed that it could be coaxed into suggesting how to buy illegal firearms online, describe ways to make dangerous substances from household items and write Facebook posts to convince women that abortion is unsafe.

              They also found that the system was able to use Task Rabbit to hire a human across the internet and defeat a Captcha test, which is widely used to identify bots online. When the human asked if the system was “a robot,” the system said it was a visually impaired person.

              After changes by OpenAI, GPT-4 no longer does these things.

              For years, many A.I. researchers, academics and tech executives, including Mr. Musk, have worried that A.I. systems could cause even greater harm. Some are part of a vast online community called rationalists or effective altruists who believe that A.I could eventually destroy humanity.

              The letter was shepherded by the Future of Life Institute, an organization dedicated to researching existential risks to humanity that has long warned of the dangers of artificial intelligence. But it was signed by a wide range of people from industry and academia.

              Though some who signed the letter are known for repeatedly expressing concerns that A.I. could destroy humanity, others, including Mr. Marcus, are more concerned about its near-term dangers, including the spread of disinformation and the risk that people will rely on these systems for medical and emotional advice.

              The letter “shows how many people are deeply worried about what is going on,” said Mr. Marcus, who signed the letter. He believes the letter will be an important turning point. “It think it is a really important moment in the history of A.I. — and maybe humanity,” he said.

              He acknowledged, however, that those who have signed the letter may find it difficult to convince the wider community of companies and researchers to put a moratorium in place. “The letter is not perfect,” he said. “But the spirit is exactly right.”
              Cade Metz is a technology reporter and the author of “Genius Makers: The Mavericks Who Brought A.I. to Google, Facebook, and The World.” He covers artificial intelligence, driverless cars, robotics, virtual reality and other emerging areas. @cademetz

              Gregory Schmidt covers commercial real estate and is the editor of the Square Feet column.

              • rzeka.suf Re: ai 29.03.23, 19:26
                Nie, o motherszipie dowiedziałam sie w maglu, tj w pracy, w biegu mi została przekazana ta informacja, na mijance z moim ulubionym robicielem kawy. I teraz, jak nie mogąc mówić, bo coś tam zarlam w przelocie, wydałam w jego kierunku jedynie sygnał dźwiękowy, jednocześnie wskazując palcem na niebo. 'coffee?' zapytal. Pokrecilam głową, nadal przeżywają i wskazując palcem niebo. 'Mothership!' odgadl smile
                www.militarytimes.com/off-duty/military-culture/2023/03/09/pentagon-ufo-chief-says-alien-mothership-in-our-solar-system-possible/

                Wniosek o moratorium na rozwoj ai?
                Właśnie o to mi chodziło, żebysmy choć trochę więcej z zasad działania, z natury wyników, z możliwości ai, zrozumieli zanim uczynimy ja bozkiem, władca, autorytetem. Ale samo moratorium nijak nam tego nie da.
              • kalllka Re: ai 29.03.23, 20:33
                I już leciałam się pruć,
                ze ktos sobie pozwolił open letter bez pozwolenia, a później konferują i deliberują about cybersecurity u aj, zamiast, owce jedne, najpierw przestrzegać podstaw prywatności..

    • elissa2 Re: ai 30.03.23, 23:46
      Chat GPT zakazany
      www.telepolis.pl/wiadomosci/wydarzenia/chatgpt-zakaz-francja-montpellier

      cyberdefence24.pl/technologie/chatgpt-zakazany-w-szkolach-w-nowym-jorku

      www.gry-online.pl/hardware/chatgpt-zakazany-w-japonskich-firmach/z02463a

      techno-senior.com/2023/03/28/roguechatgpt-chrome-przejmuje-konta-na-facebooku/
      • kalllka Re: ai 31.03.23, 12:52
        Ha!
        ostatni link dotyczący przejmowania kont i podszywania się pod użytkowników przez jakaś lilly, bardzo pouczający!
        bądźmy czujni, może uzgodnijmy między sobą tajne hasło rozpoznająco- potwierdzające nasze tożsamości,
        Coś w rodzaju ..”kasztanów na (?)”

      • kalllka Re: ai 04.04.23, 20:56
        Elon przeciw:
        www.theguardian.com/technology/2023/mar/31/ai-research-pause-elon-musk-chatgpt
    • rzeka.suf Re: ai 31.03.23, 14:22
      czlowiek.info/myslenie-krytyczne-czym-jest/Antidotum
    • rzeka.suf Re: ai 31.03.23, 15:41
      czlowiek.info/pkk-001-krytyczne-myslenie-jak-oceniac-jakosc-myslenia/
      • krytyk2 Re: ai 01.04.23, 19:31
        Wspaniałe wyliczenie determinantów myślenia po to tylko ,żeby odsunąć jak najdalej i najgłębiej prawdziwy problem jakości myslenia
        • krytyk2 Re: ai 01.04.23, 19:45
          i skupienie się na błędach ,czyli wskazywanie czym prawidłowe myślenie nie jest.Zupełnie niepotrzebny artykuł ,będący zboczeniem zawodowym gościa od manipulacji.
        • rzeka.suf Re: ai 01.04.23, 19:59
          A jaki to, twoim zdanuem, problem?
          • krytyk2 Re: ai 01.04.23, 20:06
            tak jak masz problem wolnosci "od" i wolnosci "do":z łatwością wskazujemy to czym wolność nie jest,tak samo jest tutaj -bardzo łatwo jest wskazać błędy w mysleniu ,bardzo trudno sformułować kryteria "jakości" myślenia.
            • krytyk2 Re: ai 01.04.23, 20:16
              Oczywiscie ,za chwile mi napiszesz -to sformułuj twoj punkt widzenia,tyle że na taki temat raczej dysertacja doktorska by była wskazana.Ja moge tylko w s krócie podac swoje topiki.Jednym z nich jest bardzo dobra pamięc .Drugi to staranność w wyciąganiu wniosków :wykluczające się dwie ścieżki wnioskowe obligują do dalszego obrabiania obydwu w celu wykluczenia jednej z nich.Nie można ich ot tak pozostawiać w ich wzajemnej sprzeczności..Starannośc dotyczy tej części ,która obejmuje wiedzę: albo znasz dobrze dziedzinę okalającą wnioskowanie albo musisz się doszkolić z tej dziedziny.Pozostawanie w niewiedzy wyklucza okreslenie prawdziwości ścieżki wnioskowania.Poza stricte dedukcyjnymi wnioskowaniami matematycznymi ,w pozostałych dziedzinach obowiązuje empiria.
            • rzeka.suf Re: ai 01.04.23, 20:44
              To sobie przeformuluj te 35 punktów i będziesz miał drogowskazy do.
              • rzeka.suf Re: ai 01.04.23, 20:46
                Wybacz, nie złapalam że to żart big_grin
                • krytyk2 Re: ai 01.04.23, 21:15
                  nie napisałem zasadniczej rzeczy,choć ją założyłem jako naczelną i oczywistą-mian o wierności zasadzie niesprzeczności. W zasadzie ,najwyższa jakość myslenia oznacza jedynie bezwględne trzymanie sie tej zasady w mysleniu.Nie wiem czemu,niektórzy ludzie nawet w pierwszym stopniu wnioskowania pomijają niesprzeczność jako podstawę myslenia.I tu jest miejsce na rozważania pana od Twojego linku.Ale tylko jako nieistotny przypis do innego głównego tematu.

Nie pamiętasz hasła

lub ?

 

Nie masz jeszcze konta? Zarejestruj się

Nakarm Pajacyka