Descargar archivos ({{ 12 }})
Version 0.2.5
{{{"[b]HILO OFICIAL DE [i]DEEP VOICE[/i] PARA /co/ Y DEMÁS FAUNA.[/b]\n\nEn este hilo vamos a poner todo aquello relacionado con los [i]Deep Voice - Text To Speech[/i]. Si no sabes que es un [i]deep voice[/i], aquí hay una página en ingles que demuestra lo que se puede hacer: https://15.ai/\n\nSi bien la idea es un plagio descarado del trabajo ya hecho por [spoiler]los ponyfags (furros multicolor) del IV (4 si no entiendes de números romanos)[/spoiler]. No está de más hacer lo mismo en /co/ con personajes más afines al tablón. Sin embargo, esto de sintetizar voces en un ordenador, no es cosa fácil. Se requiere de tiempo, esfuerzo, muestras de audio, hardware, software y mucha paciencia. Tal la parte más difícil sea el software. Porque las aplicaciones más avanzadas están diseñadas para idiomas como el inglés, japones o chino. Sin embargo, eso no significa que no se pueda hacer en español.\n\nDe momento este hilo va a ser para ir recolectando información pertinente al tema. Y discutir si el proyecto vale la pena o no." | renderPostMessage 138041}}}
>> | spongebob-squarepants-1610909898668_(online-audio-.mp3 ( 63.72KB, spongebob-squarepants-1610909898668 (online-audio-.mp3 ) {{{">eso no significa que no se pueda hacer en español.\nDe hecho, en la página menciona que las transcripciones tienen que hacer en inglés, así que supongo que el programa aún no aguanta otros idiomas. No me estoy quejando, escuchar a Bob esponja hablar espanglish no tiene precio.\n\n¿Qué quieres hacer? ¿Montar nuestro servidor propio o limitar los audios y enviárselos al admin de 15.ai? El tipo dice que si se puede contribuir mientras que lo hagas de buena manera, y compartas los enlaces de los audios limpios. El único problema es que no sé por cuanto tiempo el tipo podría mantener el servidor, porque lo quiere como algo sin publicidad y solo está mantenido con donaciones de patreons.\n\nY, bueno, si quieres montar un servidor propio no creo que salga caro, solo tengo un conocimiento superficial del tema, pero creo que puedo aprender en el camino, con la esperanza de escuchar Jenny y a la mamá de Hilda haciendo gemidos basta para sacar adelante el proyecto." | renderPostMessage 138046}}} |
>> | {{{">>138046\n>¿Qué quieres hacer?\nBueno, primero hay que ver [b]que se puede hacer[/b].\n\nLO IDEAL:\nLograr montar un sistema que pueda ser alimentado con muestras de audio. Para que cualquier negro con tiempo y ganas logre su [s]más sucia[/s] fantasía de escuchar a su personaje favorito diciendo lo que quiere oír.\n\nREALIDAD:\nEs una tecnología en pañales. ¡Sí! La popó es oro sólido, pero aún le falta desarrollarse mucho más. Es increíble que siendo el español la segunda o tercera lengua más hablada en el mundo, esté tan atrasada tecnológicamente.\n\n>¿Montar nuestro servidor propio o limitar los audios y enviárselos al admin de 15.ai?\n¡Con calma! Primero hay que ver qué recursos hardware/software se necesitan y como es que se deben utilizar. Tal vez primero se debe empezar con idiomas como el inglés para ir viendo como es el asunto. Ya luego, cuando se domine el TTS tratar de replicar pero en español.\n\nEn cuanto al servidor. Según recuerdo Google Cloud te regalaba $300 dólares por un año para que aprendieras a usar su nube. Y sus precios no estaban tan descabellados para continuar después del periodo de prueba. Por lo que sería una buena opción.\n\n>pero creo que puedo aprender en el camino\nYo también estoy aprendiendo sobre la marcha. De hecho por trollear a los ponyfags, fue que descubrí los TTS." | renderPostMessage 138063}}} |
>> | 161093718332.mp4 [Google] [ImgOps] [iqdb] [SauceNAO] ( 11.99MB, videoplayback.mp4 ) {{{">>138041 (OP)\nPodrian intentar hacer un ytph para hacer algo lo mas parecido a un deep fake sin tener que suplicarle a ese gringo que probablemente le importe tres mierdas\nAunque no creo que se pueda la nivel dios que es muy kekeante de lokiju" | renderPostMessage 138134}}} |
>> | {{{">>138134\nMe acordé de esto\nhttps://www.youtube.com/watch?v=hWYEAica0hg\n\n>sin tener que suplicarle a ese gringo\nPues lo que dice un negro en >>/t/ es que ese gringo es de lo mejor que hay en el ámbito público fuera de un corporativo o una transnacional. No digo que uno se la vaya a mamar, pero no hay que hacerlo aún lado tan a la ligera." | renderPostMessage 138140}}} |
>> | {{{">>138134\nEl lipsinc se ha vuelto un meme sobreexplotado, anon, además, nunca queda bien." | renderPostMessage 138145}}} |
>> | {{{">>138145\n>Lipsinc\nSentence mixing, quise decir" | renderPostMessage 138176}}} |
>> | {{{">>138063\n>En cuanto al servidor. Según recuerdo Google Cloud te regalaba $300 dólares por un año para que aprendieras a usar su nube. Y sus precios no estaban tan descabellados para continuar después del periodo de prueba\n¿El código está libre para empezar? No tanto es el problema de un servidor, eso se puede resolver con plata, la cuestión es saber cómo funciona el programa y hacerlo funcionar en un servidor local.\n\nNo sé... cuanto más lo pienso más creo que sería más sencillo simplemente limpiar los audios de nuestros personajes de preferencia e inclusive preguntarle al admin de 15.ai si tiene pensado poder agregar voces en otros idiomas. Joder, sería genial tener un sintetizador del narrador de Dragon Ball o el viejito que hacía la narración en los documentales de la National Geographic. Estaba dando vueltas por su página y la mayoría de los personajes tienen su neurona armada con 11 minutos de contenido, no es tanto como imaginaba\nhttps://15.ai/characters" | renderPostMessage 138387}}} |
>> | scout_cringe.mp3 ( 118.82KB, scout cringe.mp3 ) {{{"Genuinamente impresionado que no hayan hecho esto ya." | renderPostMessage 138388}}} |
>> | {{{">¿El código está libre para empezar?\nNo. Allí mismo en la página dice que no ha liberado el código. Incluso advierte que cualquier fake de famosos o políticos que ande en el internet, no fue hecho por el autor de 15.ai\n\nNo se trata tanto de dinero, por lo que he leído en el documento de los ponyfags, el factor más importante es el autismo, como para poder echar a andar un sistema de redes neuronales.\n\n>>138388\n¿Y eso que es?" | renderPostMessage 138446}}} |
>> | {{{">>138446\n>No se trata tanto de dinero, por lo que he leído en el documento de los ponyfags, el factor más importante es el autismo, como para poder echar a andar un sistema de redes neuronales.\nEntonces dime por donde comenzar ¿Qué lenguajes tengo que saber? Porque estaba lurkeando internet métodos o tutoriales para montar una red neural y la verdad estoy más perdido que la mamá de Marco ¿Por donde comenzamos?\n>¿Y eso que es?\nMemes de TF2\nhttps://youtu.be/pRGYBas2wTM" | renderPostMessage 138448}}} |
>> | 161117205893.jpg [Google] [ImgOps] [iqdb] [SauceNAO] ( 273.42KB, 1920x1080, 6830716.jpg ) {{{">>138448\nLa única referencia más o menos completa es la de los ponyfags de MLP.\nhttps://docs.google.com/document/d/1xe1Clvdg6EFFDtIkkFwT-NPLRDPvkV4G675SUKjxVRU/edit\n\nEn cuanto a los lenguajes de programación, creo que el más requerido es Python. Ya que es necesario para usar PyTorch que es de los mejores open source para manejar redes neuronales. De momento ya instalé PyTorch en mi tostadora para aprender a usarlo. Aquí el libro que apenas empecé a leer.\nhttp://libgen.rs/book/index.php?md5=E235137E542EEDDAF65FD4272E5C0DDF\n\nY la página de PyTorch para descargar/instalar, documentación, guias y ejemplos.\nhttps://pytorch.org/\n\nComo dije antes. En esto del Text To Speach (TTS), primero hay que aprender como se hace en inglés y ya luego tratar de replicarlo en español." | renderPostMessage 138451}}} |
>> | N.mp3 ( 293.92KB ) {{{">>138041 (OP)\nJamás me tome enserio este proyecto y solo lo vi como un pequeño pasatiempo para sacarme kekes.\n\nY sobre el admin no se preocupen, la comunidad r/mlp, r/tf2, r/gaming, la r/music están apoyando este proyecto para que los audios salgan menos robóticos y más refinados al personaje. Y ojo, estamos hablando de comunidades de más 400k o 600k usuarios, por lo que tendremos arreglos pronto." | renderPostMessage 138479}}} |
>> | {{{">>138479\n>están apoyando este proyecto para que los audios salgan menos robóticos\nDeben de ser realmente mediocres porque los únicos personajes con grandes cantidades de input son los de MLP que salieron del 4." | renderPostMessage 138481}}} |
>> | 161118979962.mp4 [Google] [ImgOps] [iqdb] [SauceNAO] ( 628.41KB, VID-20210120-WA0116.mp4 ) {{{">>138448\n>Memes de TF2 \nesto es un regalo para la comunidad de tf2, salio mierda muy kekiante." | renderPostMessage 138484}}} |
>> | 161118997340.jpg [Google] [ImgOps] [iqdb] [SauceNAO] ( 105.27KB, 1024x720, mabel_skeptical.jpg ) {{{">>138479\n>Jamás me tome enserio este proyecto y solo lo vi como un pequeño pasatiempo para sacarme kekes.\nNo sé que tan autista seas, pero no logro entender a que te refieres con \"este proyecto\", tal vez yo sea el autista, por favor explicate un poco más, negro. Como sea, yo si me he tomado en serio lo de sintetizar voces. Pero me he topado con la realidad de que es más difícil de lo que pensé en un principio. Leyendo lo que dice el 4dm1n de 15.ia sí es bastante el trabajo y recursos que se necesitan para convertir un texto en audio. De momento, la opción más viable para simular voces de personajes. Es capturar muestras, sincronizar transcripciones, meter todo en un 7z y mandarlo al 4dm1n del 15.ia esperando que el personaje esté listo lo más pronto posible. Supongo que para cualquier trabajo en español, habrá que recurrir a los subtítulos." | renderPostMessage 138485}}} |
>> | 161118999049.jpg [Google] [ImgOps] [iqdb] [SauceNAO] ( 81.75KB, 833x767, Polly.jpg ) {{{">>138484\n>0:22\nEse segundo de silencio del Demoman intentando darse cuenta qué carajos está pasando siempre es lo que me mata." | renderPostMessage 138486}}} |
>> | {{{">>138485\n>Supongo que para cualquier trabajo en español, habrá que recurrir a los subtítulos.\nO también podríamos forzar la IA ¿Por qué es más fácil trabajar con el idioma inglés? ¿Los algoritmos no deberían ser fundamentalmente iguales\n\nApropósito ¿Qué voces valdrían la pena conservar? Por ahora solo la voz del narrador de DBZ se me ocurre, también sería lindo conservar la de María José Estévez y de Andrea Navas, las actrices de Perla y Lapis respectivamente, tal vez por fin podría terminar el cover de Más fuerte que tú en versión lapis que lamentablemente Navas nunca concluyó." | renderPostMessage 138487}}} |
>> | {{{">>138487\n>¿Por qué es más fácil trabajar con el idioma inglés?\nPorque las personas de habla hispana se dedican más a procrastinar (hacerle al tonto para no hacer algo). Y no tanto a desarrollar tecnología o actividades sin fines de lucro.\n\n>¿Qué voces valdrían la pena conservar?\nLa versión en español de Señorita Cometa antes de que el terremoto en México destruyera el material. Recrear una voz que se perdió usando la memoria colectiva de quienes vieron la serie, sería algo increíble y bien mamalón para presumir al mundo." | renderPostMessage 138492}}} |
>> | {{{">>138484\nbasado" | renderPostMessage 138493}}} |
>> | {{{">>138492\n>Porque las personas de habla hispana se dedican más a procrastinar \nO sea ¿Solo eso? ¿El algoritmo es fundamentalmente el mismo para sintetizar voces independientemente del idioma?" | renderPostMessage 138499}}} |
>> | 161119521148.png [Google] [ImgOps] [iqdb] [SauceNAO] ( 370.85KB, 640x640, tumblr_ph4ngnwXTG1vnix2z_640.png ) {{{">>138499\nNo sólo son algoritmos. Hay mucho trabajo detrás de un proyecto así. Por ejemplo una parte sería listar todas las palabras en el idioma español con sus respectivas formas de pronunciar. Una búsqueda rápida en Google dice que tan sólo el castellano tiene al rededor de 93,000 palabras según la RAE. Imagina todo el trabajo que conlleva hacer coincidir cada una de esas palabras con la sintetización que pueda hacer un vocoder (la parte que reproduce la voz). Ahora añade que cada palabra puede ser pronunciada en diferentes tipos de emoción. Felicidad, tristeza, enojo, tsundere, etc. Sin duda la sintetización de voces en la lengua inglesa lleva todo un camino ya recorrido. Algo, que hasta el momento, no he visto que tenga su igual en español. No lo sé, tal vez por allí haya una universidad, corporativo o grupo ne anones desarrollando su propio código." | renderPostMessage 138502}}} |
>> | {{{">>138502\nOlvidé el OP.\n\nFe de erratas, dije:\n\"Por ejemplo una parte sería listar todas las palabras en el idioma español con sus respectivas formas de pronunciar\"\n\nEn lugar de:\n\"Por ejemplo una parte sería listar todas las palabras en el idioma español y hacerlas coincidir con sus respectivas formas de pronunciar\"" | renderPostMessage 138503}}} |
>> | {{{">>138502\nPor algoritmo me refiero a que el procedimiento de trabajar con el idioma español es esencialmente el mismo que el del idioma inglés o si se tienen que hacer pasos extra o si se pueden ahorrar pasos. Como dije, cuanto más lo pienso más siento que esto está fuera de nuestras ligas, al menos por ahora; no descarto la posibilidad de ponerme a preguntarle a los nerdazos de informática de mi facultad e investigar cómo hacer funcionar esta cosa.\n\nPero por mientras ¿Tienes algo de información sobre el algoritmo? O sea, no ir directamente al código sino los diagramas y procedimientos generales usados por la red neural del hilo de MLP. No tanto el código, sino al menos tener la idea de cómo funciona." | renderPostMessage 138516}}} |
>> | {{{">>138516\n>cuanto más lo pienso más siento que esto está fuera de nuestras ligas, al menos por ahora\n¡Así es! Triste pero cierto. El procedimiento es el mismo ya sea inglés, chino mandarín o español. Pero obviamente los de habla inglesa, japonesa, china, rusa, alemana y coreana llevan mucho camino recorrido. No dudo que haya alguien que esté desarrollando TTS para el habla hispana. Pero primero habría que encontrarle y luego convencerle de compartir su trabajo. Y creo que eso sería aun más difícil que montar un sistema propio." | renderPostMessage 138525}}} |
>> | {{{">>138484\nkekeo con la cantidad de sfm que se hicieron, pero este es mi preferido.\nhttps://www.youtube.com/watch?v=r0FLyW86owo\n\n>>138485\nSe refiere a que aunque sea una pagina sintetizadora de voz, no deja de ser un proyecto que se expandirá poco a poco a cada personaje. No cuesta mucho romperse la cabeza." | renderPostMessage 138527}}} |
>> | {{{">>138527\n>wofw wfof\nal final, eso si es kekeante" | renderPostMessage 138529}}} |
>> | {{{">>138451\nMe parece bastante peculiar que todo esto haya comenzado tan solo en 2019, cuando comencé a lurkear /mlp/ llevaba un rato y siempre pensé que era algo que hacían desde siempre en lugar de ser un proyecto nuevo.\n\nEso me gusta de esta clase de inciativas, la gente nueva lo mira e internaliza como algo que siempre ha formado parte de la cultura del sitio a pesar de ser relativamente reciente." | renderPostMessage 138531}}} |
>> | 161121505351.mp4 [Google] [ImgOps] [iqdb] [SauceNAO] ( 1.67MB, (15_ai) Demoman discovers Scout_s addiction(480P).mp4 ) {{{">>138527\nKek no se porque el demoman descubriendo mierda es tan tremendamente hilarante\n\n>also\nhttps://youtu.be/ovEYeK33gS8" | renderPostMessage 138532}}} |
>> | {{{">>138531\n>Me parece bastante peculiar que todo esto haya comenzado tan solo en 2019\nEl proyecto de MLP, sí. Pero los TTS ya llevan un rato. Allí tienes el Loquendo y Vocaloid." | renderPostMessage 138545}}} |
>> | {{{">>138041 (OP)\nEncontré este TTS que al parecer es multilenguaje y aparentemente forma parte de Mozilla. Si alguien le quiere echar un vistazo.\nhttps://github.com/mozilla/TTS" | renderPostMessage 138550}}} |
>> | 161124719335.jpg [Google] [ImgOps] [iqdb] [SauceNAO] ( 171.71KB, 1451x1451, f072f164561735b470dad8237ee284c4-imagejpeg.jpg ) {{{">>138532\nNecesitamos URGENTE más de esta mierda. ¿Qué ideas tienen? Ya vimos al demoman encontrando al Scout viendo hentai y los dibujos furry del Spy." | renderPostMessage 138561}}} |
>> | {{{">>138561\n¿qué tal un poco de karma? el heavy descubriendo que el demo es brony en secreto." | renderPostMessage 138754}}} |
>> | {{{">>138754\nSuena como que tiene en potencia, si tienes más ideas, podemos discutirlo acá y yo monto las voces >>138724 (OP)" | renderPostMessage 138755}}} |