RT @TheDavidSJ: This take seems ahistorical. "Call[ing] LLMs" is rather vague, but see https://t.co/wmqi30yvFK (from 2015), and https://t.…
This take seems ahistorical. "Call[ing] LLMs" is rather vague, but see https://t.co/wmqi30yvFK (from 2015), and https://t.co/gF4l48VXpw (from 1999!) for example. It wasn't "one guy at OpenAI" in 2018. Language modeling as a promising path for AI is an ol
@macil_tech @ESYudkowsky I think I had my "wait what the fuck" moment a little earlier than most people courtesy of this paper: https://t.co/ayoS0RW6Xu And then the "Unicorns" demo a few years later really drove home that the ground was shifting in NLP.
@BlancheMinerva Not the largest but this LSTM from 2015 already had around 400M parameters I believe (half in the linear layer before the softmax) https://t.co/BJ6XRTZxZv there were 1B+ LSTM models in 2016 (with most parameters just before the softmax agai
@InfiniteMonkeye @OriolVinyalsML Check out the abstract! https://t.co/JRdQXAwY6v
@OriolVinyalsML Hey Oriol, I'm still puzzled by the example you shared in this article "IT Helpdesk Troubleshooting experiments" I know it was a long time ago but tbh I can't understand how you obtained this results with pure LSTM. Do you have any extra i
@InfiniteMonkeye @OriolVinyalsML Check out the abstract! https://t.co/JRdQXAxvW3
@OriolVinyalsML Hey Oriol, I've been trying for 10 years to reproduce the results from your 2015 paper "neural conversational model" https://t.co/CmwVAa7Y7M Any tips ? btw why would people need LLMs when lstm is all you need ?
@InfiniteMonkeye @OriolVinyalsML Check out the abstract! https://t.co/JRdQXAxvW3
Come fa na macchina a mparà l'arte della conversazione analizzando le trascrizioni dei dialoghi di centinaia di film? Facile no? Così! https://t.co/T6TWtFMGbR #AI #IntelligenzaArtificiale @JuriMarcucci
I became interested in #NLProc in 2015 when I first read @OriolVinyalsML et al., 2015 [https://t.co/yGsx5H7n7q]. Recently I've been playing with @character_ai demos; NLP has certainly come a long way! 🤯
RT @jachiam0: Wild that in ~7 years, the field went from cherry-picked conversation examples in "A Neural Conversation Model" (https://t.co…
Wild that in ~7 years, the field went from cherry-picked conversation examples in "A Neural Conversation Model" (https://t.co/USFHjqTRfC) to what is very close to a robust realization of that dream in GPT3-class models.
@evancitoo09 Check out the abstract! https://t.co/JRdQXAwY6v
@nix_bit @EmpressBashSky @OALDNM @SIRISYSPrime @AhwatukeeChiro @discerncoals @Beams_Game Check out the abstract! https://t.co/JRdQXAwY6v
@EmpressBashSky @OALDNM @SIRISYSPrime @AhwatukeeChiro @discerncoals @Beams_Game It has more original ideas then all my conversations with it. https://t.co/yeclZLScAA
[1506.05869] A Neural Conversational Model https://t.co/iixzVvD6Gh
@Stevensrijder @o_willen Verschil tussen intelligentie en een programma. Human:are you a leader or a follower ? Machine: i ’m a leader . Human:are you a follower or a leader ? Machine:i ’m a leader . https://t.co/yeclZLScAA Ik ben heel geïnteresseerd in
One day, I came across the paper A Neural Conversational Model (https://t.co/wQyNEYT96W) by @OriolVinyalsML and @quocleix. The paper showed sample conversations with an end-to-end learned neural network. (3/4)
RT @StavroulaSokoli: (Another experiment with subtitles - laughing my heart out with this). "As turn taking is not clearly indicated, we tr…
RT @StavroulaSokoli: (Another experiment with subtitles - laughing my heart out with this). "As turn taking is not clearly indicated, we tr…
(Another experiment with subtitles - laughing my heart out with this). "As turn taking is not clearly indicated, we treated consecutive sentences assuming they were uttered by different characters" https://t.co/6yVOsh0Bmi
RT @anshul81: In 2015, Google trained a conversational agent (AI) that could not only convincingly interact with humans as a tech support h…
RT @anshul81: In 2015, Google trained a conversational agent (AI) that could not only convincingly interact with humans as a tech support h…
In 2015, Google trained a conversational agent (AI) that could not only convincingly interact with humans as a tech support helpdesk, but also discuss morality, express opinions, and answer general facts-based questions. Source: https://t.co/q4hIMBnQjF ht
RT @Smerity: @Miles_Brundage @fchollet Imagine if Google stated "LMs are potentially dual use" whilst releasing these samples from a many y…
RT @Smerity: @Miles_Brundage @fchollet Imagine if Google stated "LMs are potentially dual use" whilst releasing these samples from a many y…
RT @Smerity: @Miles_Brundage @fchollet Imagine if Google stated "LMs are potentially dual use" whilst releasing these samples from a many y…
Anyone else think this reads exactly like a certain lobster-obsessed self-help writer?
RT @Smerity: @Miles_Brundage @fchollet Imagine if Google stated "LMs are potentially dual use" whilst releasing these samples from a many y…
@Miles_Brundage @fchollet Imagine if Google stated "LMs are potentially dual use" whilst releasing these samples from a many year old paper. These samples themselves caused collisions in the media between science and fiction and that PR noise _must_ be con
@OriolVinyalsML I failed to reproduce the results from the « neural conversational model » https://t.co/8d20YzilQd ;)
@EdMusman @Stormtroepen Meet Julia, enkel wat Google dataservers geconnecteerd en een spraakprogramma gegeven : https://t.co/yeclZLScAA Ik spreek niet over nadelen of voordelen, ik spreek alleen dat het gaat komen.
I spent half a semester studying dialog management, then saw this paper which sort of says: we don't have an explicit dialog manager, we just do seq-to-seq network and found that it converses very well! Maybe: RNN's hidden-state is-a dialog-manager if we
this is interesting: "Our preliminary results suggest that, despite optimizing the wrong objective function, the model is able to converse well." . . A Neural Conversational Model https://t.co/nSgRYBDumD
ニューラルネットワークを用いた会話文の生成論文 / “A Neural Conversational Model” https://t.co/5YIpB6hTNV
RT @mmbollmann: Ouch. (found in https://t.co/nyQdnZBdAH) https://t.co/fWjUZcYmLb
Ouch. (found in https://t.co/nyQdnZBdAH) https://t.co/fWjUZcYmLb
Chat Bots are in principle easy piece to create. Here is an example of modelling conversation ABC->Lxyz in paper https://t.co/3jAOlgDJfc Here ABC is input and xyz is the output. L is label for output. Label may be used for... https://t.co/3jAOlgDJfc
A Neural Conversational Model https://t.co/LaWRNrb19Z #NeuralNetworks #MachineLearning #AI #chatbots
RT @C0NV3R54710N: Juste une conversation entre le dernier #chatbot de #Google et son programmateur. #IA https://t.co/2n0VHEdaTR https://t.c…
RT @themachinefraco: RT @C0NV3R54710N: Juste une conversation entre le dernier #chatbot de #Google et son programmateur. #IA https://t.co/q…
RT @themachinefraco: RT @Le_Mythorage: Juste une conversation entre le dernier #chatbot de #Google et son programmateur. #IA https://t.co/q…
RT @C0NV3R54710N: Juste une conversation entre le dernier #chatbot de #Google et son programmateur. #IA https://t.co/2n0VHEdaTR https://t.c…
Juste une conversation entre le dernier #chatbot de #Google et son programmateur. #IA https://t.co/2n0VHEdaTR https://t.co/OcTgajOmSz via Le_Mythorage
RT @KaywanShiraz: Super dense material on natural language processing (aka #chatbots) and alignment cultural sensitivities. Read it or not…
RT @KaywanShiraz: Super dense material on natural language processing (aka #chatbots) and alignment cultural sensitivities. Read it or not…
Super dense material on natural language processing (aka #chatbots) and alignment cultural sensitivities. Read it or not but a really important consideration when using automated chat: https://t.co/25UTDHq9m2
A Neural Conversational Model - https://t.co/X6dgdRfg4I #LSTM
RT @pabloc_ds: A Neural Conversational Model using seq2seq deep learning models. It has its limitations. Source: https://t.co/vHvRD7FoCh .…
A Neural Conversational Model using seq2seq deep learning models. It has its limitations. Source: https://t.co/vHvRD7FoCh . Two recommended resources to start doing this: https://t.co/3OayVn2Rq4 and https://t.co/TP7RoIMjUm (Keras' creator). 🤖📞 #DeepLe
RT @braveproductguy: RNN bots really kill it on contextual datasets. Wow. Check out how this #AI talks as a IT Helpdesk rep. https://t.co/…
RNN bots really kill it on contextual datasets. Wow. Check out how this #AI talks as a IT Helpdesk rep. https://t.co/TXSw3nGIJV
Šta je nemoralno? Činjenica da imate djecu“, izražavajući neprijateljstvo spram ljudske sposobnosti reprodukcije #AI https://t.co/5nsQ5Xc7ZI
https://t.co/wxPCeQ33G1 これgoogleからかよ
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
https://t.co/Wapl7Y42s7 google'ın ürettiği en gelişmiş yapay zekanın log'ları.. ahlak ve etik üzerine verdiği sorular ise bir hayli ilginç..
I know pretending to be bad at math is a tactic for passing a Turing test but this from https://t.co/AUj4JehnRf takes it a bit too far 😝 https://t.co/wATFYrY5FA
https://t.co/MYROyRrxQi これですかね。Neural Conversation Model #chainer_meetup
인공지능에게 철학을 묻는게 기억에 남는다. https://t.co/TaIZ6I86Eq 신경망 대화 모델
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…
RT @MikiAlgorithm: https://t.co/1cNkYJ7DKf 구글의 두 연구자가 LSTM 딥 뉴럴 네트워크를 통해 챗봇을 학습해 본 논문이야. 철학적인 질문에 대한 대답이 걸작이라 들고 와본 거야. https://t.co/BUmwW…