AMD Ele publicou recentemente uma patente para distribuir a carga da tela em vários chips de GPU. O cenário do jogo é dividido em blocos individuais e distribuídos em tábuas de madeira para melhorar o uso do sombreamento nos jogos. Um recipiente de folha de dois níveis é usado para isso.
AMD publica patente para implementação de chiplets de GPU para melhor uso da tecnologia shader
Uma nova patente publicada pela AMD abre mais informações sobre o que a empresa planeja fazer com a tecnologia de GPU e CPU de próximo nível nos próximos anos. No final de junho, foi revelado que 54 pedidos de patentes haviam sido submetidos para publicação. Não se sabe qual das mais de cinquenta patentes publicadas será usada nos planos da AMD. As aplicações discutidas nas patentes ilustram a abordagem da empresa nos anos seguintes.
Um aplicativo que o membro da comunidade @ETI1120 notou no site base de computadornúmero da patente US20220207827, discute dados de imagem críticos em dois estágios para passar eficientemente cargas de exibição da GPU em vários chipsets. Esta CPU inicialmente aplicada ao Escritório de Patentes dos EUA no final do ano passado.
Quando os dados de imagem na GPU são rasterizados por meios padrão, a unidade de sombreamento, também conhecida como ALU, executa a tarefa semelhante e atribui um nome de cor aos pixels individuais. Em contraste, os polígonos texturizados encontrados no pixel selecionado em uma determinada cena do jogo são mapeados diretamente para o pixel. Por fim, a tarefa formulada manterá princípios atípicos e diferirá apenas por outras texturas localizadas em diferentes pixels. Este método é chamado SIMD, ou Instrução Única – Dados Múltiplos.
Para a maioria dos jogos atuais, os shaders não são a única tarefa que a GPU deu à luz. Mas, em vez disso, muitos elementos de pós-processamento são incluídos após o sombreamento inicial. As ações que a GPU adicionará, por exemplo, serão a prevenção de anti-aliasing, vinhetas e bloqueios no ambiente do jogo. No entanto, o ray tracing ocorre junto com o sombreamento, criando um novo método de computação.
Quando falamos sobre a GPU que controla os gráficos nos jogos atuais, a carga gerada por computador aumenta exponencialmente para milhares de unidades computacionais.
Em jogos em GPUs, essa carga de computação equivale a vários milhares de unidades de computação de maneira bastante ideal. Isso difere dos processadores, pois os aplicativos precisam ser escritos especificamente para adicionar mais núcleos. O agendador de CPU cria essa ação e divide o trabalho da GPU em tarefas mais compreensíveis que são tratadas por unidades de computação, também chamadas de binning. A imagem do jogo é apresentada e depois dividida em blocos separados contendo uma quantidade especificada de pixels. O bloco é computado por uma subunidade de processador gráfico, onde é sincronizado e gerado. Após este procedimento, os pixels aguardando para serem contados são incluídos em um bloco até que a subunidade da placa gráfica seja finalmente utilizada. São feitas considerações para poder de computação de sombreamento, largura de banda de memória e tamanhos de cache.
A AMD afirma na patente que o particionamento e a junção exigem uma conexão de dados abrangente e completa entre todos os elementos da GPU, o que representa um problema. Os links de dados que não estão no modelo têm um alto nível de latência, o que torna o processo mais lento.
As CPUs fizeram essa transição para chiplets sem esforço devido à sua capacidade de enviar o trabalho por vários núcleos, tornando-os muito acessíveis aos chiplets. As GPUs não oferecem a mesma flexibilidade, o que as torna comparáveis a um pré-processador dual-core.
A AMD reconhece a necessidade e tenta fornecer respostas a esses problemas alterando o pipeline de rasterização e enviando tarefas entre várias GPUs, semelhantes às CPUs. Isso requer tecnologia avançada de binning, que a empresa oferece “binning binning”, também conhecida como “binning binning”.
Na supermontagem, a divisão é processada em duas fases separadas, em vez de processamento direto em blocos pixel a pixel. O primeiro passo é calcular a equação, pegar um ambiente 3D e criar uma imagem 2D a partir do original. O estágio é chamado de vertex shaders e é concluído antes da rasterização, e o processo é mínimo no primeiro chip da GPU. Uma vez terminado, a cena do jogo começa a desaparecer, evoluindo para caixas irregulares e processando em um único chip GPU. Depois disso, as tarefas de rotina, como pontilhar e pós-processamento, podem começar.
Não se sabe quando a AMD pretende começar a usar esse novo processo ou se será aprovado. No entanto, isso nos dá um vislumbre do futuro do processamento de GPU mais eficiente.
Já faz muito tempo que os usuários do iPhone não conseguem verificar as informações de integridade da bateria diretamente no aplicativo Ajustes. No entanto, esse recurso não estava disponível no iPad – até agora. Com o lançamento do novo M2 iPad Ar E iPad M4 ProA Apple finalmente trouxe o menu Battery Health para o iPadOS.
Como ele apontou iCulturatodos os novos iPads lançados na semana passada (M2air E M4 Pró) apresenta um menu de integridade da bateria pela primeira vez. Isso significa que os proprietários de iPad também podem verificar a capacidade máxima da bateria sem precisar usar aplicativos de terceiros como o CoconutBattery.
Na verdade, a Apple fez mais do que apenas adicionar capacidade máxima à bateria. Assim como os novos modelos do iPhone 15 M2 iPad Ar E iPad M4 Pro Também oferece a opção de limitar a carga máxima a 80% para preservar a vida útil da bateria interna. Como resultado, o seu iPad para de carregar automaticamente quando atinge 80%.
No entanto, há um porém. Nada disso estará disponível para modelos anteriores de iPad, mesmo se você instalou a atualização mais recente do iPadOS, versão 17.5. Portanto, se você tiver um iPad mais antigo, ainda terá que usar aplicativos de terceiros para verificar a integridade da bateria – e também não terá a opção de selecionar 80% de carga.
Claro, a Apple ainda pode mudar isso no futuro com uma atualização de software, mas isso parece improvável, visto que apenas os iPhones mais recentes têm todas essas opções.
o novo M2 iPad Ar E iPad M4 Pro Disponível para encomenda no site da Apple, o lançamento oficial está previsto para quarta-feira.
Os desenvolvedores agora podem integrar o recurso de acessibilidade em seus aplicativos, permitindo aos usuários controlar o cursor com gestos faciais ou movendo a cabeça. Por exemplo, eles podem abrir a boca para mover o cursor ou levantar as sobrancelhas para clicar e arrastar.
O Projeto Gameface foi anunciado durante a conferência de desktop Google I/O no ano passado e usa a câmera do dispositivo e um banco de dados de expressões faciais de… API de detecção de pontos de referência faciais MediaPipe Para manipular o indicador.
“Através da câmera do dispositivo, ele rastreia perfeitamente as expressões faciais e os movimentos da cabeça e os traduz em um controle intuitivo e personalizado”, explicou o Google em seu anúncio. “Os desenvolvedores agora podem criar aplicativos onde seus usuários podem configurar sua experiência personalizando expressões faciais, tamanhos de gestos, velocidade do cursor e muito mais.”
Embora o Gameface tenha sido inicialmente projetado para jogadores, o Google afirma que também fez parceria com compreensivo – Uma empresa social na Índia focada na acessibilidade – para ver como pode expandi-la para outros ambientes, como trabalho, escola e situações sociais.
Project Gameface é inspirado em streamer de videogame tetraplégico Lance Carr, que sofre de atrofia muscular. Carr colaborou com o Google no projeto, com o objetivo de criar uma alternativa mais barata e acessível aos caros sistemas de rastreamento de cabeças.
atualizar:Hoje é o Google I/O. Siga nosso Blog ao vivo do Google I/O 2024 Para todas as grandes notícias que acontecem.
Depois que a OpenAI nos impressionou com seu modelo GPT-4o, o Google seguiu com uma demonstração de bate-papo Gemini que também fez o futuro da IA parecer brilhante.
O Google lançou um novo vídeo mostrando um protótipo Gemini no Pixel usando vídeo ao vivo e instruções faladas para fornecer informações. O vídeo parece ter sido filmado durante a preparação para o Google I/O, que começa em 14 de maio.
Mais um dia até #GoogleIO! Nós sentimos 😉. Vejo você amanhã para as últimas notícias sobre IA, pesquisa e muito mais. pic.twitter.com/QiS1G8GBf913 de maio de 2024
Na demonstração, eles mostram um telefone Pixel com tecnologia Gemini AI ao palco montado para o Google I/O e perguntam o que eles acham que está acontecendo. Corretamente, ela diz que parece o cenário de um grande evento sendo preparado. Quando as mensagens aparecem na tela, Gemini diz que são para o Google I/O e dá uma breve descrição do próximo evento do Google.
Muito parecido com a recente demonstração ChatGPT da OpenAI, o vídeo Gemini do Google é impressionante dada a naturalidade da conversa. É fácil esquecer que não há ninguém por trás do som vindo do seu Pixel. Ele se move naturalmente como se dois amigos estivessem sentados conversando.
Sem testar dois modelos de IA, é difícil dizer qual deles funciona melhor, mas ambos são impressionantes. Você deve estar animado (e talvez um pouco nervoso) com o futuro da IA com base nessas duas demonstrações. E de acordo com a OpenAI, só vai melhorar muito a partir daqui.
Embora a demonstração do Google seja empolgante, a empresa foi criticada no passado por fazer sua demonstração de IA parecer mais impressionante do que realmente era. Teremos que brincar com essas mudanças do Gemini antes de sabermos com certeza o quanto elas melhoraram, mas se o vídeo for uma representação precisa, a batalha da IA apenas começou.
Atualize sua vida com uma dose diária das maiores notícias de tecnologia, dicas de estilo de vida e nossa análise selecionada. Seja o primeiro a saber sobre os gadgets mais recentes e as melhores ofertas.
A palestra do Google está programada para dar início ao Google I/O, então aprenderemos mais sobre os planos para o Gemini e vários outros projetos da empresa em breve.